[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2022190366A1 - 内視鏡用形状計測システムおよび内視鏡用形状計測方法 - Google Patents

内視鏡用形状計測システムおよび内視鏡用形状計測方法 Download PDF

Info

Publication number
WO2022190366A1
WO2022190366A1 PCT/JP2021/010118 JP2021010118W WO2022190366A1 WO 2022190366 A1 WO2022190366 A1 WO 2022190366A1 JP 2021010118 W JP2021010118 W JP 2021010118W WO 2022190366 A1 WO2022190366 A1 WO 2022190366A1
Authority
WO
WIPO (PCT)
Prior art keywords
endoscope
information
region
image
dimensional shape
Prior art date
Application number
PCT/JP2021/010118
Other languages
English (en)
French (fr)
Inventor
達哉 中村
大智 渡邊
和成 花野
圭悟 松尾
琢 坂本
一郎 小田
Original Assignee
オリンパス株式会社
国立研究開発法人国立がん研究センター
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社, 国立研究開発法人国立がん研究センター filed Critical オリンパス株式会社
Priority to JP2023505052A priority Critical patent/JP7462255B2/ja
Priority to PCT/JP2021/010118 priority patent/WO2022190366A1/ja
Priority to CN202180095271.8A priority patent/CN116940274A/zh
Publication of WO2022190366A1 publication Critical patent/WO2022190366A1/ja
Priority to US18/244,394 priority patent/US20230419517A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/0004Operational features of endoscopes provided with input arrangements for the user for electronic operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Definitions

  • the present disclosure relates to an endoscope shape measurement system and an endoscope shape measurement method.
  • Endoscopic submucosal dissection is a therapeutic method that removes lesions en masse using a dedicated instrument, and is attracting attention as a less invasive treatment method in place of conventional surgical treatment. It is Since ESD target tumors are lesions with no risk of lymph node metastasis and there is a correlation between the metastasis rate and tumor size, it is important to accurately measure the tumor size.
  • Patent Literature 2 discloses a technique of determining a reference plane by determining three-dimensional coordinates of a plurality of points on the surface of an object near anomalies such as dents, cracks, and pitting corrosion.
  • an object of the present disclosure is to provide a technique for accurately specifying information regarding the size of a lesion contained in an image captured by an endoscope.
  • an endoscopic shape measurement system includes a processor, and the processor displays an endoscopic image of living tissue in a body cavity captured by an endoscope on a display device.
  • receive a user operation for setting a region of interest in the endoscopic image set the region of interest in the endoscopic image based on the user's operation, and obtain three-dimensional shape information of the biological tissue photographed by the endoscope.
  • 3D shape information of the virtual surface in the attention area is derived from the 3D shape information of the area different from the attention area, and information about the size of the virtual surface is specified from the derived 3D shape information of the virtual surface.
  • the endoscopic shape measurement system may have a plurality of processors, and the plurality of processors may work together to perform the above processing.
  • An endoscopic shape measurement method displays an endoscopic image of a body tissue in a body cavity captured by an endoscope on a display device, and sets a region of interest in the endoscopic image. , sets a region of interest in an endoscopic image based on the user's operation, acquires 3D shape information of a biological tissue photographed by the endoscope, and obtains 3D shape information of a region different from the region of interest , the three-dimensional shape information of the virtual surface in the region of interest is derived, and information about the size of the virtual surface is specified from the derived three-dimensional shape information of the virtual surface.
  • FIG. 10 is a diagram showing a flowchart of lesion shape measurement processing. It is a figure which shows the set attention area.
  • FIG. 10 is a diagram showing a set reference area; It is a figure which shows the state which has arrange
  • FIG. 4 is a diagram for explaining a technique for deriving a three-dimensional shape of a virtual surface
  • FIG. (a) and (b) are diagrams showing the three-dimensional shape of a derived virtual surface.
  • (a) to (c) are diagrams for explaining a method of calculating the size of a virtual surface.
  • FIG. 11 is a diagram showing an example of a confirmation screen of an attention area
  • FIG. 10 is a diagram showing an example in which a discontinuity is included in the reference area; It is a figure which shows the set exclusion area
  • FIG. 1(a) shows an example of an image of a living tissue in a body cavity captured by an endoscope.
  • a lesion 2 is included in the central region, and the living body surface 3, which is the inner wall surface of the digestive tract, is included around it.
  • FIG. 1(b) schematically shows a situation during endoscopic image capturing.
  • the lesion 2 is a tumor protruding from the curved surface 3 of the living body, but some of the lesions 2 are recessed from the surface 3 of the living body.
  • the length L between the points A and B on the lesion 2 is not the length of the line segment connecting the points A and B with a straight line, but the curved biomedical surface 3. length along. Since the endoscopic image does not include the living body surface 3 hidden by the lesion 2, in the embodiment, the three-dimensional shape of the living body surface 3 hidden by the lesion 2 (hereinafter referred to as "virtual surface”) is estimated to measure the size of the lesion 2.
  • FIG. 2 shows the configuration of the endoscope shape measurement system 1 according to the embodiment.
  • An endoscopic shape measurement system 1 is provided in a medical facility such as a hospital where endoscopy is performed.
  • the endoscope observation device 5 the information processing device 10a, the information processing device 10b, and the image analysis device 8 can communicate via a network 4 such as a LAN (local area network). It is connected.
  • a network 4 such as a LAN (local area network). It is connected.
  • the endoscope observation device 5 is installed in the examination room and connected to an endoscope 7 that is inserted into the patient's gastrointestinal tract.
  • the endoscope 7 has a light guide for transmitting the illumination light supplied from the endoscope observation device 5 to illuminate the inside of the gastrointestinal tract.
  • An illumination window for emitting light to the living tissue and an imaging unit for picking up an image of the living tissue at a predetermined cycle and outputting an imaging signal to the endoscope observation device 5 are provided.
  • the endoscope observation device 5 supplies the endoscope 7 with illumination light according to the observation mode.
  • the imaging unit includes a solid-state imaging device (such as a CCD image sensor or a CMOS image sensor) that converts incident light into electrical signals.
  • the endoscope observation device 5 generates an endoscope image by performing image processing on the imaging signal photoelectrically converted by the solid-state imaging device of the endoscope 7, and displays it on the display device 6 in real time.
  • the endoscope observation device 5 may have a function of performing special image processing for the purpose of highlighting, etc., in addition to normal image processing such as A/D conversion and noise removal. Since the endoscope observation device 5 is equipped with a special image processing function, the endoscope observation device 5 can detect an endoscope without special image processing from an imaging signal captured using the same illumination light. Images and endoscopic images with special image processing can be generated.
  • the endoscopic image is a WLI (White Light Imaging) observation image generated from an imaging signal imaged using normal light (white light), and an imaging signal imaged using normal light is subjected to special image processing.
  • WLI White Light Imaging
  • TXI Texture and Color Enhancement Imaging
  • RDI Magnetic Reson Imaging
  • NBI Narrow Band Imaging
  • AFI Autofluorescence imaging
  • the endoscopic image may be an image in which unevenness of a subject is pseudo-colored, or an image generated by performing image processing on an imaging signal of the endoscope 7 .
  • the doctor observes the endoscopic image displayed on the display device 6 according to the examination procedure.
  • the endoscope observation device 5 captures (stores) an endoscopic image at the timing when the release switch is operated, and accumulates the captured endoscopic image.
  • the endoscopic images stored in the image storage server 9 are used by doctors to create examination reports.
  • the information processing device 10a is installed in an examination room, and is used by users such as doctors and nurses to confirm information regarding the size of lesions included in endoscopic images in real time during endoscopic examinations.
  • the information processing device 10a may cooperate with the image analysis device 8 to provide the user with information regarding the size of the lesion.
  • the information processing device 10b is installed in a room other than the examination room, and is used by the doctor when creating an examination report. For example, the doctor may use the lesion shape measurement function of the information processing device 10b to confirm whether the lesion imaged in the current detailed examination has a size that will be subject to ESD in the next examination. Once the physician confirms that the imaged lesion is large enough for ESD, he may decide to en bloc resect the lesion using ESD at the next endoscopy.
  • the image analysis device 8 has an image analysis function that, upon input of an endoscopic image, detects lesions and outputs regions where lesions exist (lesion regions).
  • the image analysis device 8 is a trained model generated by machine learning using endoscopic images for learning and information about lesion areas included in the endoscopic images as teacher data, and receives endoscopic images as input. A trained model that outputs the location of the lesion area may then be used.
  • the image analysis device 8 may be provided with an endoscopic image from the endoscopic observation device 5 and supply the image analysis result to the endoscopic observation device 5 or the information processing device 10a.
  • FIG. 3 can be implemented by any processor, memory, auxiliary storage device, or other LSI in terms of hardware, and by programs loaded in the memory in terms of software. It depicts the functional blocks realized by the cooperation of Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.
  • the functional blocks of the endoscopic shape measurement system 1 may be realized independently by each of the endoscope observation device 5, the information processing device 10a, the information processing device 10b, and the image analysis device 8, but two or more devices may be implemented. may be realized by a combination of As such, the functional blocks shown as processing device 20 may be implemented by one or more processors contained in a single device, but may also be implemented by multiple processors contained in two or more devices.
  • the endoscope observation device 5 displays an image of the inside of the gastrointestinal tract captured by the endoscope 7 on the display device 6 .
  • the doctor observes the endoscopic image displayed on the display device 6 while moving the endoscope 7 , and when the lesion is displayed on the display device 6 , operates the release switch of the endoscope 7 .
  • the endoscopic observation device 5 captures an endoscopic image at the timing when the release switch is operated, and stores the captured endoscopic image together with information (image ID) for identifying the endoscopic image in an image storage server.
  • image ID information for identifying the endoscopic image in an image storage server.
  • the endoscopic observation device 5 may collectively transmit a plurality of captured endoscopic images to the image storage server 9 after the end of the examination.
  • the image storage server 9 records the endoscopic image transmitted from the endoscopic observation device 5 in association with the examination ID that identifies the endoscopic examination.
  • the endoscopic observation device 5 of the embodiment has a function of measuring three-dimensional shape information of living tissue included in the captured endoscopic image.
  • the endoscope observation device 5 may measure the three-dimensional shape of the photographed living tissue by a known technique.
  • the endoscope observation device 5 measures the three-dimensional shape of the living tissue included in the captured endoscope image, adds information on the measured three-dimensional shape to the endoscope image, and stores the information in the image storage server 9. Send. Therefore, the image storage server 9 records the endoscopic image in association with the three-dimensional shape information of the photographed living tissue.
  • the endoscope 7 may be equipped with a stereo camera, and the endoscope observation device 5 may measure the three-dimensional shape of living tissue using the principle of triangulation from images captured by the two cameras. Further, as disclosed in Patent Document 1, the endoscope observation device 5 projects a projection image of the measurement pattern by laser light onto the biological tissue, and based on the imaging result of the measurement pattern projected onto the biological tissue, , the three-dimensional shape of the living tissue may be measured. In addition, the endoscope observation device 5 utilizes a trained model that has undergone machine learning using an image acquired by a stereo camera and distance information of the living tissue included in the image as training data, and an endoscopic image captured by a monocular camera. A three-dimensional shape of the living tissue may be measured from the mirror image.
  • the endoscope observation device 5 may measure the three-dimensional shape of the living tissue from the inter-frame feature amount of the endoscope image captured by the monocular camera. In this manner, the endoscope observation device 5 measures the three-dimensional shape of the living tissue in the endoscope image using a known measurement technique.
  • the three-dimensional shape measurement function of the photographed living tissue may be installed in a device other than the endoscope observation device 5.
  • the three-dimensional shape measurement function may be installed in the information processing device 10 a, the image analysis device 8 , or the image storage server 9 .
  • the image storage server 9 adds the three-dimensional shape information of the photographed living tissue to the endoscopic image transmitted from the endoscope observation device 5.
  • data for calculating the three-dimensional shape information is associated and recorded.
  • the doctor operates the information processing device 10b to create an examination report.
  • the information processing device 10b reads the endoscopic image taken in the examination from the image storage server 9 and displays it on the display device 12b, and the doctor diagnoses the lesion included in the displayed endoscopic image.
  • the information processing apparatus 10b of the embodiment derives the three-dimensional shape of a living body surface (virtual surface) hidden in a lesion included in an endoscopic image, and determines the size of the virtual surface, that is, A process is performed to identify the size of the lesion bed.
  • a case in which the information processing device 10b implements the lesion shape measurement function of the processing device 20 will be described below.
  • FIG. 4 shows an example of an endoscopic image displayed on the display device 12b.
  • the display processing unit 46 acquires from the image storage server 9 the endoscopic image associated with the examination ID of the examination for which the report is to be created, and displays it on the display device 12b.
  • the endoscopic image is an image of the living tissue inside the body cavity captured by the endoscope 7.
  • FIG. 5 shows a flowchart of lesion shape measurement processing.
  • a user who is a doctor operates the user interface 70 to set a region of interest in the endoscopic image displayed on the display device 12b (S10).
  • FIG. 6 shows an example of the attention area 110 that has been set.
  • the user operates the user interface 70 such as a mouse to draw a boundary line between the lesion 100 and the biological surface 102 in the endoscopic image displayed on the display device 12b.
  • the region of interest setting unit 34 sets the region of interest 110 on the endoscopic image based on the user's operation.
  • a region of interest 110 is a lesion area surrounded by a boundary line.
  • a user who is a doctor can recognize the boundary between the lesion 100 and the living body surface 102 based on medical findings such as three-dimensional shape and color tone characteristics. Region 110 can be set accurately.
  • the reference area setting unit 36 sets a reference area surrounding the attention area 110 based on the attention area 110 (S12).
  • the reference area 120 includes at least the entire attention area 110 and is set to a range larger than the attention area 110 .
  • FIG. 7 shows an example of the set reference area 120.
  • the reference area setting unit 36 preferably sets the reference area 120 so as to have a blank space of a predetermined length or more outside the outer edge of the attention area 110 .
  • the reference area setting unit 36 sets the left and right sides passing through positions separated by a predetermined length l1 from the leftmost and rightmost ends of the attention area 110, and the left and right sides separated by a predetermined length l2 from the top and bottom ends of the attention area 110, respectively.
  • a rectangular area formed by upper and lower sides passing through the position may be set as the reference area 120 .
  • the user may operate the user interface 70 to set the reference area 120 for the attention area 110 displayed on the display device 12b.
  • the operation accepting unit 30 accepts a user operation for setting a reference area on the endoscopic image
  • the reference area setting unit 36 sets the reference area 120 on the endoscopic image based on the user's operation. Since the set reference area 120 defines the range of the three-dimensional shape information used when deriving the virtual surface of the attention area 110, the user can determine the range in which the virtual surface of the attention area 110 can be preferably derived. , is preferably determined as the reference region 120 .
  • the three-dimensional information acquisition unit 38 acquires three-dimensional shape information of the living tissue photographed by the endoscope (S14). As described above, the three-dimensional shape information of the living tissue is linked to the endoscopic image and recorded in the image storage server 9. Get dimensional shape information.
  • the virtual surface derivation unit 48 derives the three-dimensional shape information of the virtual surface in the attention area 110 from the three-dimensional shape information of the area different from the attention area 110 (S16).
  • the three-dimensional shape information of the virtual plane may include two-dimensional coordinates of each pixel of the virtual plane in the endoscopic image and distance information (depth information) of each pixel.
  • the virtual surface derivation unit 48 derives the three-dimensional shape information of the virtual surface in the attention area 110 from the three-dimensional shape information of the reference area 120 .
  • the virtual plane in the region of interest 110 means a virtual living body plane existing behind the lesion 100 (the living body plane 102 when it is assumed that the lesion 100 does not exist).
  • FIG. 8 shows a state in which the reference area 120 is arranged on the xy plane.
  • the horizontal position of the endoscopic image is represented by the x coordinate
  • the vertical position is represented by the y coordinate.
  • the position (depth position) in the distance direction from the camera may be represented by the z-coordinate.
  • the hatched area indicates the reference area 120 in the xy plane
  • the virtual surface derivation unit 48 derives the 3D shape information of the virtual surface in the attention area 110 from the 3D shape information of the reference area 120. do.
  • the virtual surface derivation unit 48 does not use the three-dimensional shape information of the attention area 110 .
  • FIG. 9 shows an example of the three-dimensional shape of the reference area 120.
  • FIG. 9A is a perspective view of the three-dimensional shape of the reference area 120
  • FIG. 9B is a view of the three-dimensional shape of the reference area 120 viewed in the y-axis direction.
  • FIG. 10 is a diagram for explaining a method of deriving the three-dimensional shape of the virtual surface in the attention area 110.
  • the virtual surface derivation unit 48 performs fitting processing of the three-dimensional shape of the attention area 110 based on the three-dimensional shape information of the reference area 120 for each column in the y-axis direction at predetermined intervals in the x-axis direction. Specifically, as shown in FIG. 10, a polynomial approximation curve is obtained from the three-dimensional point cloud data in the reference region 120 for each column extending in the y-axis direction.
  • the virtual surface derivation unit 48 divides the attention area 110 into N equal intervals in the x-axis direction, and derives a polynomial approximation curve that fits each division line (column). After that, the virtual surface deriving unit 48 may perform fitting processing also in the x-axis direction based on the point group data of the N polynomial approximate curves to derive three-dimensional shape information of a smooth virtual surface. In this way, the virtual surface deriving unit 48 uses the reference area 120 set by the reference area setting unit 36 to obtain high-level three-dimensional shape information of the virtual surface even if the biological surface has a complicated curved shape. It can be derived with precision.
  • FIG. 11(a) shows an example of a virtual surface 130 derived with respect to the three-dimensional shape of the reference area 120 shown in FIG. 9(b), and FIG. Examples of dimensional shapes are shown.
  • the virtual surface deriving unit 48 of the embodiment performs a three-dimensional shape fitting process for deriving a polynomial approximate curve, other types of fitting processes may be performed.
  • the virtual surface derivation unit 48 of the embodiment smoothly connects the empty space in the center of the three-dimensional shape of the reference area 120 to derive the virtual surface 130 in the attention area 110 .
  • the virtual plane 130 generated in this way corresponds to the virtual bottom surface of the lesion 100 in the region of interest 110 .
  • the size information specifying unit 50 specifies information about the size of the virtual surface 130 from the three-dimensional shape information of the virtual surface 130 (S18). For example, the size information specifying unit 50 may derive the major axis and minor axis of the virtual surface 130 as follows.
  • FIG. 12(a) is a diagram for explaining a method of calculating the major axis of the virtual surface 130.
  • the size information specifying unit 50 calculates the route distance along the virtual plane 130 between all two points on the boundary, and specifies the maximum value of the route distance as the major axis.
  • FIG. 12(b) shows a combination of two points with the maximum route distance.
  • the size information specifying unit 50 determines that the route distance between the points P and Q on the boundary is the maximum, the size information specifying unit 50 specifies the route distance between the points P and Q as the “major axis” of the virtual surface 130 . After specifying the major axis, the size information specifying unit 50 derives a combination of two points that provide the maximum path distance among paths orthogonal to the major axis.
  • FIG. 12(c) shows a combination of two points with the maximum path distance in the direction intersecting the major axis.
  • the virtual plane 130 corresponds to the virtual bottom surface of the lesion 100
  • the size information specifying unit 50 derives the major axis and minor axis of the virtual plane 130 to obtain the major axis and minor axis of the lesion 100 .
  • the display processing unit 46 may display the major axis and minor axis of the lesion bottom derived by the virtual plane deriving unit 48 on the display device 12b.
  • FIG. 13 shows an example of the attention area confirmation screen displayed on the display device 12b.
  • the user operates the user interface 70 to set the attention area 110. At this time, it may be possible to check whether the set attention area 110 is appropriate.
  • the image generator 40 When the user sets the region of interest 110, the image generator 40 generates a three-dimensional image of the living tissue based on the three-dimensional shape information of the living tissue.
  • the display processing unit 46 synthesizes the three-dimensional image of the living tissue and the image indicating the position of the attention area 110, and displays the synthesized image on the display device 12b.
  • the region of interest 110 is synthesized at a position separated from the three-dimensional image of the biological tissue in the z-axis direction, but may be synthesized at a position aligned in the z-axis direction.
  • the user can see that the contour lines of the region of interest 110 are aligned with the boundary between the lesion 100 and the biological surface 102 . You can check if you agree. If not, the user resets the region of interest 110 so that it matches the area of the lesion 100 .
  • the display processing unit 46 may synthesize the three-dimensional image of the living tissue and the image indicating the position of the reference region 120 and display them on the display device 12b. By synthesizing and displaying the three-dimensional image of the living tissue and the image indicating the position of the reference region 120, the user can check whether the reference region 120 is set appropriately.
  • the display processing unit 46 may synthesize the virtual surface 130 with the three-dimensional image of the biological tissue and display it on the display device.
  • the virtual plane 130 is hidden behind the lesion 100 and cannot be visually recognized.
  • the user can confirm whether the virtual plane 130 is appropriately derived. can.
  • the virtual surface deriving unit 48 derives the three-dimensional shape information of the virtual surface 130 from the three-dimensional shape information of the reference region 120 different from the attention region 110. There may be objects that impair the continuity of the surface. If the virtual surface derivation unit 48 performs fitting processing of the 3D shape of the attention area 110 from the discontinuous 3D shape information of the biological surface, the 3D shape information of the virtual surface 130 cannot be estimated with high accuracy.
  • FIG. 14 shows an example in which the discontinuity 104 is included in the reference area 120.
  • the discontinuity 104 is, for example, a protrusion or recess that impairs the continuity of the biological surface in the reference region 120, and may be a lesion. Since the discontinuity 104 adversely affects the fitting accuracy when performing the three-dimensional shape fitting process, it is preferably removed manually by the user before performing the fitting process.
  • FIG. 15 shows the exclusion area 140 that has been set.
  • the user operates the user interface 70 to set the exclusion area 140 in the endoscopic image displayed on the display device 12b.
  • the virtual surface derivation unit 48 extracts the three-dimensional shape information of the reference region 120 from which the three-dimensional shape information of the exclusion region 140 is excluded. , the three-dimensional shape information of the virtual surface 130 is derived. Accordingly, the virtual surface derivation unit 48 can derive the virtual surface 130 with high accuracy.
  • the virtual surface derivation unit 48 performs fitting processing of the three-dimensional shape of the exclusion region 140 from the three-dimensional shape information of the reference region 120 excluding the three-dimensional shape information of the exclusion region 140, and corrects the correction surface of the exclusion region 140. (virtual surface) may be derived. After correcting the three-dimensional shape information of the exclusion region 140 in this manner, the virtual surface derivation unit 48 may derive the virtual surface 130 of the attention region 110 from the corrected three-dimensional shape information of the reference region 120 .
  • the above is a mode in which the information processing device 10b realizes the lesion shape measurement function of the processing device 20 when the user creates an examination report after the examination is finished.
  • the information processing device 10a may cooperate with the image analysis device 8 to realize the lesion shape measurement function of the processing device 20 during the endoscopy.
  • the image analysis device 8 has an image analysis unit 42 and a learned model holding unit 60 (see FIG. 3). It holds a trained model generated by machine learning using information about areas as training data. This trained model is configured to detect a lesion area and output the position of the lesion area when an endoscopic image is input.
  • the endoscopic observation device 5 displays the endoscopic image captured by the endoscope 7 in real time from the display device 6, and transmits the endoscopic image to the information processing device 10a and the image display device 10a.
  • Send to analysis device 8 the image analysis unit 42 inputs the acquired endoscopic image to the learned model held in the learned model holding unit 60 .
  • the trained model receives an endoscopic image and detects a lesion area, it outputs the position information of the lesion area.
  • the image analysis unit 42 transmits the positional information of the lesion area output by the learned model to the information processing apparatus 10a together with the information (image ID) for identifying the endoscopic image.
  • the display processing unit 46 displays the endoscopic image captured by the endoscope 7 on the display device 12a, and receives the position information and image ID of the lesion area provided from the image analysis device 8. Based on this, information indicating the position of the lesion area is displayed on the endoscopic image. At this time, the display processing unit 46 synchronizes the endoscopic image to be displayed with the information indicating the position of the lesion area to be displayed based on the image ID. For example, as shown in FIG. 6, the display processing unit 46 may superimpose the boundary line of the lesion 100 on the endoscopic image including the lesion 100 and display it.
  • the user operating the information processing device 10a may decide to set the attention area 110 by operating the user interface 70 after confirming that the boundary line of the lesion 100 output by the learned model is correct.
  • the operation receiving unit 30 receives a user's operation for setting a region of interest in the endoscopic image, and the region-of-interest setting unit 34 sets the region of interest in the endoscopic image based on the user's operation.
  • the information processing apparatus 10a performs the steps S12, S14, S16, and S18 shown in FIG. This information may be provided to the endoscope viewing device 5 and displayed on the display device 6 to inform the physician operating the endoscope 7 .
  • the virtual surface deriving unit 48 derives the three-dimensional shape information of the virtual surface 130 from the three-dimensional shape of the peripheral area of the attention area 110, and therefore, if the peripheral area is small, the three-dimensional shape of the virtual surface 130 is estimated. is not sufficient, it is difficult to derive the three-dimensional shape information of the virtual surface 130 with high accuracy. Therefore, the auxiliary information generation unit 44 may generate auxiliary information regarding the imaging range of the endoscope 7 during imaging based on the position of the lesion area provided from the image analysis device 8 . For example, if the ratio of the lesion area in the endoscopic image exceeds a predetermined threshold (for example, 60%), a sufficiently large reference area cannot be secured around the lesion area.
  • a predetermined threshold for example, 60%
  • Auxiliary information may be generated to inform the physician that the mirror 7 camera is too close to the lesion site.
  • the auxiliary information generator 44 provides the generated auxiliary information to the endoscope observation device 5 , and the endoscope observation device 5 displays the auxiliary information on the display device 6 so that the doctor operating the endoscope 7 can can be confirmed. This allows the doctor to recognize that the camera of the endoscope 7 is too close to the lesion site and move the endoscope 7 so that the camera is away from the lesion site. Therefore, a sufficiently large peripheral area is secured around the lesion area, and the virtual surface derivation unit 48 can derive the three-dimensional shape information of the virtual surface 130 with high accuracy.
  • the present disclosure can be used in the technical field of measuring the shape of a lesion site.
  • SYMBOLS 1 Shape measuring system for endoscopes, 5... Endoscope observation apparatus, 6... Display apparatus, 7... Endoscope, 8... Image analysis apparatus, 9... Image Storage server 10a, 10b Information processing device 12a, 12b Display device 20 Processing device 30 Operation receiving unit 32 Area setting unit 34 Attention Region setting unit 36 Reference region setting unit 38 Three-dimensional information acquisition unit 40 Image generation unit 42 Image analysis unit 44 Auxiliary information generation unit 46. Display processing unit 48 Virtual surface deriving unit 50 Size information specifying unit 60 Learned model holding unit 70 User interface.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • Endoscopes (AREA)

Abstract

表示処理部46は、体腔内の生体組織を内視鏡が撮影した内視鏡画像を表示装置に表示する。操作受付部30は、内視鏡画像に注目領域を設定するためのユーザ操作を受け付ける。注目領域設定部34は、ユーザ操作にもとづいて、内視鏡画像に注目領域を設定する。3次元情報取得部38は、内視鏡が撮影した生体組織の3次元形状情報を取得する。仮想面導出部48は、注目領域とは異なる領域の3次元形状情報から、注目領域における仮想面の3次元形状情報を導出する。サイズ情報特定部50は、仮想面の3次元形状情報から、仮想面のサイズに関する情報を特定する。

Description

内視鏡用形状計測システムおよび内視鏡用形状計測方法
 本開示は、内視鏡用形状計測システムおよび内視鏡用形状計測方法に関する。
 内視鏡的粘膜下層剥離術(ESD:Endoscopic Submucosal Dissection)は、専用の処置具を使用して病変を一括切除する治療法であり、従来の外科治療に代わって、侵襲の少ない治療法として注目されている。ESDの対象となる腫瘍は、リンパ節転移リスクのない病変であり、転移率と腫瘍サイズには相関があるため、腫瘍サイズが正確に測定されることが重要である。
 特許文献1は、レーザ光による計測用パターンの投影像を観察部位に投影し、観察部位に投影された計測用パターンの撮像結果に基づいて、観察部位の3次元形状を算出する3次元形状計測装置を開示する。また特許文献2は、凹み、亀裂、孔食などの異常に近接する物体の表面上の複数点の3次元座標を決定して基準面を決定する技術を開示する。
特開2017-23562号公報 特開2017-162452号公報
 ESDの実施を検討する際の判断基準としてだけでなく、内視鏡観察による診断において、腫瘍等の病変のサイズを正確に測定することは重要である。しかしながら消化管の内壁面は湾曲した形状を呈しており、従来、そのような内壁面に存在する病変のサイズを正確に測定する手法は確立されていない。本開示はこうした状況に鑑みてなされたものであり、その目的は、内視鏡が撮影した画像に含まれる病変のサイズに関する情報を正確に特定する技術を提供することにある。
 上記課題を解決するために、本開示のある態様の内視鏡用形状計測システムは、プロセッサを備え、プロセッサは、体腔内の生体組織を内視鏡が撮影した内視鏡画像を表示装置に表示し、内視鏡画像に注目領域を設定するためのユーザ操作を受け付け、ユーザ操作にもとづいて内視鏡画像に注目領域を設定し、内視鏡が撮影した生体組織の3次元形状情報を取得し、注目領域とは異なる領域の3次元形状情報から、注目領域における仮想面の3次元形状情報を導出し、導出した仮想面の3次元形状情報から、仮想面のサイズに関する情報を特定する。内視鏡用形状計測システムは、複数のプロセッサを有し、複数のプロセッサが協働して、上記処理を実施してよい。
 本開示の別の態様の内視鏡用形状計測方法は、体腔内の生体組織を内視鏡が撮影した内視鏡画像を表示装置に表示し、内視鏡画像に注目領域を設定するためのユーザ操作を受け付け、ユーザ操作にもとづいて内視鏡画像に注目領域を設定し、内視鏡が撮影した生体組織の3次元形状情報を取得し、注目領域とは異なる領域の3次元形状情報から、注目領域における仮想面の3次元形状情報を導出し、導出した仮想面の3次元形状情報から、仮想面のサイズに関する情報を特定する。
 なお、以上の構成要素の任意の組み合わせ、本開示の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本開示の態様として有効である。
(a)は、内視鏡が撮影した画像の一例を示す図であり、(b)は、内視鏡画像撮影時の状況を模式的に示す図である。 内視鏡用形状計測システムの構成を示す図である。 内視鏡用形状計測システムにおける機能ブロックを示す図である。 内視鏡画像の例を示す図である。 病変形状の計測処理のフローチャートを示す図である。 設定された注目領域を示す図である。 設定された参照領域を示す図である。 参照領域をxy平面に配置した状態を示す図である。 (a)および(b)は、参照領域の三次元形状の例を示す図である。 仮想面の3次元形状を導出する手法を説明するための図である。 (a)および(b)は、導出される仮想面の3次元形状を示す図である。 (a)~(c)は、仮想面のサイズを算出する手法を説明するための図である。 注目領域の確認画面の例を示す図である。 参照領域に不連続体が含まれている例を示す図である。 設定された除外領域を示す図である。
 図1(a)は、体腔内の生体組織を内視鏡が撮影した画像の一例を示す。この内視鏡画像において、病変2が中央領域に含まれ、その周囲に、消化管の内壁面である生体面3が含まれている。図1(b)は、内視鏡画像撮影時の状況を模式的に示す。この例で病変2は、湾曲した生体面3から隆起した腫瘍であるが、病変2の中には生体面3から陥没するものも存在する。
 生体面3が湾曲形状を有するため、病変2における点Aと点Bの間の長さLは、点Aと点Bを直線で結んだ線分の長さではなく、湾曲した生体面3に沿った長さとなる。内視鏡画像には、病変2によって隠されている生体面3は含まれないため、実施例では、病変2により隠された生体面3(以下、「仮想面」と呼ぶ)の3次元形状を推定して、病変2のサイズを計測する。
 図2は、実施例にかかる内視鏡用形状計測システム1の構成を示す。内視鏡用形状計測システム1は、内視鏡検査を行う病院などの医療施設に設けられる。内視鏡用形状計測システム1において、内視鏡観察装置5、情報処理装置10a、情報処理装置10bおよび画像解析装置8が、LAN(ローカルエリアネットワーク)などのネットワーク4を介して、通信可能に接続されている。
 内視鏡観察装置5は検査室に設けられ、患者の消化管に挿入される内視鏡7を接続される。内視鏡7は、内視鏡観察装置5から供給される照明光を伝送して、消化管内を照明するためのライトガイドを有し、先端部には、ライトガイドにより伝送される照明光を生体組織へ出射するための照明窓と、生体組織を所定の周期で撮像して撮像信号を内視鏡観察装置5に出力する撮像部が設けられる。内視鏡観察装置5は、観察モードに応じた照明光を内視鏡7に供給する。撮像部は、入射光を電気信号に変換する固体撮像素子(たとえばCCDイメージセンサまたはCMOSイメージセンサ)を含む。
 内視鏡観察装置5は、内視鏡7の固体撮像素子により光電変換された撮像信号に対して画像処理を施して内視鏡画像を生成し、表示装置6にリアルタイムに表示する。内視鏡観察装置5は、A/D変換、ノイズ除去などの通常の画像処理に加えて、強調表示等を目的とする特別な画像処理を実施する機能を備えてよい。内視鏡観察装置5が、特別な画像処理機能を搭載することで、内視鏡観察装置5は、同じ照明光を用いて撮像した撮像信号から、特別な画像処理を施していない内視鏡画像と、特別な画像処理を施した内視鏡画像とを生成できる。
 実施例において内視鏡画像は、通常光(白色光)を用いて撮像した撮像信号から生成したWLI(White Light Imaging)観察画像、通常光を用いて撮像した撮像信号に特別な画像処理を施して生成したTXI(Texture and Color Enhancement Imaging)観察画像、特殊光を用いて撮像した撮像信号から生成したRDI観察画像、NBI(Narrow Band Imaging)観察画像、AFI(Autofluorescence imaging)観察画像であってよい。また内視鏡画像は、被写体の凹凸を擬似カラー化した画像、その他、内視鏡7の撮像信号を画像処理して生成した画像であってよい。
 医師は、検査手順にしたがって、表示装置6に表示されている内視鏡画像を観察する。医師が内視鏡7のレリーズスイッチを操作すると、内視鏡観察装置5は、レリーズスイッチが操作されたタイミングで内視鏡画像をキャプチャ(保存)して、キャプチャした内視鏡画像を画像蓄積サーバ9に送信する。画像蓄積サーバ9に蓄積される内視鏡画像は、医師による検査レポートの作成に利用される。
 情報処理装置10aは検査室に設けられ、医師や看護師等のユーザが、内視鏡検査中に内視鏡画像に含まれる病変のサイズに関する情報をリアルタイムに確認するために利用される。情報処理装置10aは、画像解析装置8と協働して、病変のサイズに関する情報をユーザに提供してよい。
 情報処理装置10bは検査室以外の部屋に設けられ、医師が検査レポートを作成する際に利用される。たとえば医師が、今回の精密検査で撮影した病変が次回検査においてESDの対象となる大きさであるか確認するために、情報処理装置10bによる病変形状計測機能が利用されてよい。医師は、撮影した病変がESDの対象となる大きさであることを確認すると、次回の内視鏡検査においてESDを用いて当該病変を一括切除することを決定してよい。
 画像解析装置8は、内視鏡画像を入力すると、病変を検出して、病変が存在する領域(病変領域)を出力する画像解析機能を備える。画像解析装置8は、学習用の内視鏡画像および内視鏡画像に含まれる病変領域に関する情報を教師データとして用いた機械学習により生成された学習済みモデルであって、内視鏡画像を入力すると、病変領域の位置を出力する学習済みモデルを利用してよい。内視鏡検査中、画像解析装置8は、内視鏡観察装置5から内視鏡画像を提供されて、画像解析結果を、内視鏡観察装置5または情報処理装置10aに供給してよい。
 図3は、内視鏡用形状計測システム1における機能ブロックを示す。内視鏡用形状計測システム1は、病変形状計測処理を実行する処理装置20、学習済みモデル保持部60およびユーザインタフェース70を備える。処理装置20は、操作受付部30、領域設定部32、3次元情報取得部38、画像生成部40、画像解析部42、補助情報生成部44、表示処理部46、仮想面導出部48およびサイズ情報特定部50を備え、領域設定部32は、注目領域設定部34および参照領域設定部36を有する。ユーザインタフェース70は、たとえばマウスやタッチペン、キーボードなど、ユーザが操作を入力するためのツールである。
 図3に示す構成はハードウエア的には、任意のプロセッサ、メモリ、補助記憶装置、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。
 図3に示す内視鏡用形状計測システム1の機能ブロックは、内視鏡観察装置5、情報処理装置10a、情報処理装置10b、画像解析装置8の少なくとも1つの装置によって実現される。内視鏡用形状計測システム1の機能ブロックは、内視鏡観察装置5、情報処理装置10a、情報処理装置10b、画像解析装置8のそれぞれにより単独で実現されてよいが、2つ以上の装置の組み合わせにより実現されてもよい。そのため処理装置20として示す機能ブロックは、単独の装置に含まれる1以上のプロセッサによって実現されてよいが、2つ以上の装置に含まれる複数のプロセッサによって実現されてもよい。
 内視鏡検査中、内視鏡観察装置5は、内視鏡7が撮影している消化管内の画像を表示装置6に表示する。医師は、内視鏡7を動かしながら、表示装置6に表示される内視鏡画像を観察し、病変が表示装置6に映し出されると、内視鏡7のレリーズスイッチを操作する。内視鏡観察装置5は、レリーズスイッチが操作されたタイミングで内視鏡画像をキャプチャして、キャプチャした内視鏡画像を、当該内視鏡画像を識別する情報(画像ID)とともに画像蓄積サーバ9に送信する。なお内視鏡観察装置5は、検査終了後に、キャプチャした複数の内視鏡画像をまとめて画像蓄積サーバ9に送信してもよい。画像蓄積サーバ9は、内視鏡検査を識別する検査IDに紐付けて、内視鏡観察装置5から送信された内視鏡画像を記録する。
 実施例の内視鏡観察装置5は、撮影された内視鏡画像に含まれる生体組織の3次元形状情報を計測する機能を有する。内視鏡観察装置5は、既知の手法によって、撮影された生体組織の3次元形状を計測してよい。内視鏡観察装置5は、キャプチャした内視鏡画像に含まれる生体組織の3次元形状を計測し、内視鏡画像に、計測した3次元形状の情報を付加して、画像蓄積サーバ9に送信する。したがって画像蓄積サーバ9は、内視鏡画像に、撮影された生体組織の3次元形状情報を関連付けて記録する。
 たとえば内視鏡7がステレオカメラを搭載し、内視鏡観察装置5が、2つのカメラで撮影した画像から三角測距の原理を利用して、生体組織の3次元形状を計測してよい。また内視鏡観察装置5は、特許文献1に開示されたように、レーザ光による計測用パターンの投影像を生体組織に投影し、生体組織に投影された計測用パターンの撮像結果に基づいて、生体組織の3次元形状を計測してもよい。また内視鏡観察装置5は、ステレオカメラで取得した画像と、当該画像に含まれる生体組織の距離情報とを教師データとして機械学習した学習済みモデルを利用して、単眼カメラで撮影した内視鏡画像から、生体組織の3次元形状を計測してもよい。また内視鏡観察装置5は、単眼カメラで撮影した内視鏡画像のフレーム間の特徴量から、生体組織の3次元形状を計測してもよい。このように内視鏡観察装置5は、既知の計測手法を利用して、内視鏡画像の生体組織の3次元形状を計測する。
 なお、撮影された生体組織の3次元形状計測機能は、内視鏡観察装置5以外の装置に搭載されてもよい。たとえば3次元形状計測機能は、情報処理装置10aに搭載されてもよく、画像解析装置8に搭載されてもよく、または画像蓄積サーバ9に搭載されてもよい。いずれの装置が生体組織の3次元形状を計測してもよいが、画像蓄積サーバ9は、内視鏡観察装置5から送信された内視鏡画像に、撮影された生体組織の3次元形状情報または当該3次元形状情報を算出するためのデータを関連付けて記録する。
 検査終了後、医師は、情報処理装置10bを操作して検査レポートを作成する。情報処理装置10bは、画像蓄積サーバ9から、検査で撮影した内視鏡画像を読み出して、表示装置12bに表示し、医師は、表示された内視鏡画像に含まれる病変を診断する。実施例の情報処理装置10bは、医師から要求があった場合に、内視鏡画像に含まれる病変に隠された生体面(仮想面)の3次元形状を導出し、仮想面のサイズつまりは病変底面のサイズを特定する処理を実施する。以下、情報処理装置10bが、処理装置20(図3参照)の病変形状計測機能を実現する場合について説明する。
 図4は、表示装置12bに表示される内視鏡画像の例を示す。表示処理部46は、レポートを作成する検査の検査IDに紐付けられた内視鏡画像を画像蓄積サーバ9から取得して、表示装置12bに表示する。内視鏡画像は、内視鏡7が体腔内の生体組織を撮影した画像であり、図4に示す内視鏡画像には、略円形の病変100と、その周囲に、消化管の内壁面である生体面102とが含まれている。
 図5は、病変形状計測処理のフローチャートを示す。医師であるユーザは、ユーザインタフェース70を操作して、表示装置12bに表示されている内視鏡画像に、注目領域を設定する(S10)。
 図6は、設定された注目領域110の例を示す。ユーザは、マウスなどのユーザインタフェース70を操作して、表示装置12bに表示されている内視鏡画像において、病変100と生体面102の境目に境界線を描く。操作受付部30が、内視鏡画像に注目領域を設定するためのユーザ操作を受け付けると、注目領域設定部34が、ユーザ操作にもとづいて、内視鏡画像に注目領域110を設定する。注目領域110は、境界線で囲まれた病変領域である。医師であるユーザは、3次元的形状や色調特性等の医学的所見により病変100と生体面102との境目を認識できるため、注目領域設定部34はユーザ操作にもとづいて、病変領域を示す注目領域110を正確に設定することができる。
 注目領域設定部34が注目領域110を設定した後、参照領域設定部36が、注目領域110にもとづいて、注目領域110を取り囲む参照領域を設定する(S12)。参照領域120は、少なくとも注目領域110の全てを包含し、注目領域110よりも大きな範囲に設定される。参照領域設定部36が参照領域を設定することで、生体面が複雑な湾曲形状を有していても、後述するように仮想面導出部48が、仮想面の3次元形状情報を高精度に導出できるようになる。
 図7は、設定された参照領域120の例を示す。参照領域設定部36は、注目領域110の外縁よりも外側に、所定長以上の余白を有するように参照領域120を設定することが好ましい。たとえば参照領域設定部36は、注目領域110の最左端、最右端から、それぞれ所定長l1だけ離れた位置を通る左辺、右辺と、注目領域110の最上端、最下端からそれぞれ所定長l2だけ離れた位置を通る上辺、下辺から構成される矩形領域を、参照領域120として設定してもよい。
 なおユーザが、ユーザインタフェース70を操作して、表示装置12bに表示されている注目領域110に対して、参照領域120を設定してもよい。操作受付部30が、内視鏡画像に参照領域を設定するためのユーザ操作を受け付けると、参照領域設定部36が、ユーザ操作にもとづいて、内視鏡画像に参照領域120を設定する。設定される参照領域120は、注目領域110の仮想面を導出する際に利用する3次元形状情報の範囲を定めるものであるため、ユーザは、注目領域110の仮想面を好適に導出できる範囲を、参照領域120として決定することが好ましい。
 参照領域設定部36が参照領域120を設定した後、3次元情報取得部38が、内視鏡が撮影した生体組織の3次元形状情報を取得する(S14)。上記したように、生体組織の3次元形状情報は、内視鏡画像に紐付けて画像蓄積サーバ9に記録されており、3次元情報取得部38は、内視鏡画像に紐付けられた3次元形状情報を取得する。
 仮想面導出部48は、注目領域110とは異なる領域の3次元形状情報から、注目領域110における仮想面の3次元形状情報を導出する(S16)。仮想面の3次元形状情報は、内視鏡画像における仮想面の各画素の2次元座標と、各画素の距離情報(深さ情報)を含んでよい。具体的に仮想面導出部48は、参照領域120の3次元形状情報から、注目領域110における仮想面の3次元形状情報を導出する。図1に示したように、注目領域110における仮想面とは、病変100の奥側に存在する仮想的な生体面(病変100が存在しないと仮定したときの生体面102)を意味する。
 図8は、参照領域120をxy平面に配置した状態を示す。図8では、内視鏡画像の横方向の位置をx座標、高さ方向の位置をy座標で表現している。なお各画素の3次元情報のうち、カメラからの距離方向の位置(深さ位置)はz座標で表現されてよい。図8において、ハッチングで示した領域は、xy平面における参照領域120を示し、仮想面導出部48は、参照領域120の3次元形状情報から、注目領域110における仮想面の3次元形状情報を導出する。仮想面の3次元形状情報を導出するとき、仮想面導出部48は、注目領域110の3次元形状情報を利用しない。
 図9は、参照領域120の三次元形状の例を示す。図9(a)は、参照領域120の三次元形状の斜視図であり、図9(b)は、参照領域120の3次元形状をy軸方向に見た図である。
 図10は、注目領域110における仮想面の3次元形状を導出する手法を説明するための図である。仮想面導出部48は、x軸方向に所定の間隔を空けたy軸方向の列ごとに、参照領域120の3次元形状情報から、注目領域110の3次元形状のフィッティング処理を行う。具体的に、図10に示すように、y軸方向に延びる列ごとに、参照領域120における三次元の点群データから、多項式近似曲線を求める。仮想面導出部48は、注目領域110をx軸方向にN個に等間隔に分割して、各分割線(列)にフィットする多項式近似曲線を導出する。その後、仮想面導出部48は、N個の多項式近似曲線の点群データをもとに、x軸方向にもフィッティング処理を行って、滑らかな仮想面の3次元形状情報を導出してよい。このように仮想面導出部48は、参照領域設定部36により設定された参照領域120を利用することで、生体面が複雑な湾曲形状を有していても仮想面の3次元形状情報を高精度に導出できる。
 図11(a)は、図9(b)に示す参照領域120の3次元形状に対して導出される仮想面130の例を示し、図11(b)は、導出される仮想面130の3次元形状の例を示す。なお実施例の仮想面導出部48は、多項式近似曲線を導出する3次元形状のフィッテイング処理を実施したが、他の種類のフィッティング処理を行ってもよい。実施例の仮想面導出部48は、参照領域120の3次元形状の中央に空いた空間を滑らかに繋いで、注目領域110における仮想面130を導出する。このように生成された仮想面130は、注目領域110における病変100の仮想的な底面に相当する。
 サイズ情報特定部50は、仮想面130の3次元形状情報から、仮想面130のサイズに関する情報を特定する(S18)。たとえばサイズ情報特定部50は、仮想面130の長径および短径を、以下のように導出してよい。
 図12(a)は、仮想面130の長径を算出する手法を説明するための図である。サイズ情報特定部50は、境界上の全ての2点間の仮想面130に沿った経路距離を算出し、経路距離の最大値を、長径として特定する。
 図12(b)は、経路距離が最大となった2点の組み合わせを示す。サイズ情報特定部50は、境界上の点Pと点Qの間の経路距離が最大となることを判定すると、点Pと点Qの経路距離を、仮想面130の「長径」として特定する。長径を特定すると、サイズ情報特定部50は、長径に直交する経路のうち、最大の経路距離となる2点の組み合わせを導出する。
 図12(c)は、長径に交差する方向の経路距離が最大となった2点の組み合わせを示す。サイズ情報特定部50は、境界上の点Rと点Sの間の経路距離が最大となることを判定すると、点Rと点Sの経路距離を、仮想面130の「短径」として特定する。
 上記したように仮想面130は、病変100の仮想的な底面に相当し、サイズ情報特定部50は、仮想面130の長径および短径を導出することで、病変100の底面の長径および短径を導出する。表示処理部46は、仮想面導出部48が導出した病変底面の長径および短径を表示装置12bに表示してよい。ユーザは、病変底面の長径および短径を知ることで、当該病変がESDの対象となる大きさであるか否かを確認できる。
 以上、病変形状計測処理の基本的な工程を説明したが、仮想面130の3次元形状情報を高精度に導出するために、各工程における処理をユーザが確認するためのオプションが用意されてもよい。
 図13は、表示装置12bに表示される注目領域の確認画面の例を示す。S10において、ユーザは、ユーザインタフェース70を操作して注目領域110を設定するが、このとき、設定した注目領域110が適切であるか確認できるようにしてもよい。
 ユーザが注目領域110を設定すると、画像生成部40は、生体組織の3次元形状情報にもとづいて、生体組織の3次元画像を生成する。表示処理部46は、生体組織の3次元画像と、注目領域110の位置を示す画像とを合成して表示装置12bに表示する。図13においては、注目領域110が、生体組織の3次元画像に対してz軸方向に離れた位置に合成されているが、z軸方向の位置を合わせた位置で合成されてもよい。z軸方向の位置を合わせて、生体組織の3次元画像に注目領域110の外郭線を重畳表示した場合、ユーザは、病変100と生体面102との境界に、注目領域110の外郭線が一致しているか確認できる。一致していなければ、ユーザは、注目領域110が病変100の領域と一致するように、注目領域110を再設定する。
 S12において表示処理部46は、生体組織の3次元画像と、参照領域120の位置を示す画像とを合成して表示装置12bに表示してもよい。生体組織の3次元画像と、参照領域120の位置を示す画像とを合成表示することで、ユーザは、参照領域120が適切に設定されているか確認できるようになる。
 また仮想面導出部48が仮想面130を導出した後に、表示処理部46は、生体組織の3次元画像に、仮想面130を合成して表示装置に表示してもよい。本来、仮想面130は、病変100に隠れて視認できるものではないが、生体組織の3次元画像に仮想面130を合成表示することで、ユーザは、仮想面130が適切に導出されているか確認できる。
 図5に示すS16において、仮想面導出部48は、注目領域110とは異なる参照領域120の3次元形状情報から、仮想面130の3次元形状情報を導出するが、参照領域120内に、生体面の連続性を損なう物体が存在することがある。仮想面導出部48は、不連続な生体面の3次元形状情報から注目領域110の3次元形状のフィッティング処理を行うと、仮想面130の3次元形状情報を高精度に推定できない。
 図14は、参照領域120に不連続体104が含まれている例を示す。不連続体104は、たとえば参照領域120における生体面の連続性を損なう凸部や凹部であり、病変であってもよい。3次元形状のフィッティング処理を行う際、不連続体104は、フィッティング精度に悪影響を与えるため、フィッティング処理を行う前に、ユーザにより手動で除去されることが好ましい。
 図15は、設定された除外領域140を示す。ユーザは、ユーザインタフェース70を操作して、表示装置12bに表示されている内視鏡画像に、除外領域140を設定する。操作受付部30は、参照領域120に除外領域140を設定するためのユーザ操作を受け付けると、仮想面導出部48は、除外領域140の3次元形状情報を除外した参照領域120の3次元形状情報から、仮想面130の3次元形状情報を導出する。これにより仮想面導出部48は、仮想面130を高精度に導出できる。
 このとき仮想面導出部48は、除外領域140の3次元形状情報を除外した参照領域120の3次元形状情報から、除外領域140の3次元形状のフィッティング処理を行って、除外領域140の補正面(仮想面)を導出してもよい。このように仮想面導出部48は、除外領域140の3次元形状情報を補正した後、補正した参照領域120の3次元形状情報から、注目領域110の仮想面130を導出してもよい。
 以上は、検査終了後、ユーザが検査レポートを作成する際に、情報処理装置10bが、処理装置20の病変形状計測機能を実現する態様である。別の態様として、情報処理装置10aが画像解析装置8と協働して、内視鏡検査中に、処理装置20の病変形状計測機能を実現してもよい。
 画像解析装置8は、画像解析部42および学習済みモデル保持部60(図3参照)を有し、学習済みモデル保持部60は、学習用の内視鏡画像および内視鏡画像に含まれる病変領域に関する情報を教師データとして用いた機械学習により生成された学習済みモデルを保持している。この学習済みモデルは、内視鏡画像を入力すると、病変領域を検出して、当該病変領域の位置を出力するように構成されている。
 内視鏡検査中、内視鏡観察装置5は、内視鏡7が撮影している内視鏡画像を、表示装置6からリアルタイム表示するとともに、当該内視鏡画像を情報処理装置10aおよび画像解析装置8に送信する。画像解析装置8において、画像解析部42は、内視鏡画像を取得すると、学習済みモデル保持部60に保持されている学習済みモデルに入力する。学習済みモデルは、内視鏡画像を入力されると、病変領域を検出した場合に、その病変領域の位置情報を出力する。画像解析部42は、学習済みモデルにより出力された病変領域の位置情報を、内視鏡画像を識別する情報(画像ID)とともに、情報処理装置10aに送信する。
 情報処理装置10aにおいて、表示処理部46は、内視鏡7で撮影されている内視鏡画像を表示装置12aに表示するとともに、画像解析装置8から提供される病変領域の位置情報および画像IDをもとに、内視鏡画像に病変領域の位置を示す情報を表示する。このとき表示処理部46は、画像IDにもとづいて、表示する内視鏡画像と、表示する病変領域の位置を示す情報とを同期させる。表示処理部46は、たとえば図6に示すように、病変100を含む内視鏡画像に、病変100の境界線を重畳して表示してよい。
 情報処理装置10aを操作するユーザは、学習済みモデルにより出力された病変100の境界線が正しいことを確認すると、ユーザインタフェース70を操作して、注目領域110を設定することを決定してよい。このとき操作受付部30は、内視鏡画像に注目領域を設定するためのユーザ操作を受け付け、注目領域設定部34は、ユーザ操作にもとづいて、内視鏡画像に注目領域を設定する。このように内視鏡用形状計測システム1が、学習済みモデルを用いて、病変領域を検出する機能を有する場合には、ユーザが、検出された病変領域が正しいことを確認するだけで、注目領域が設定されてもよい。注目領域が設定されると、情報処理装置10aは、図5に示すS12、S14、S16、S18の工程を実施して、仮想面130のサイズに関する情報を特定する。この情報は、内視鏡観察装置5に提供されて、表示装置6に表示され、内視鏡7を操作する医師に知らされてよい。
 仮想面導出部48は、仮想面130の3次元形状情報を、注目領域110の周辺領域の3次元形状から導出するため、当該周辺領域が小さいと、仮想面130の3次元形状を推定するための3次元データが十分ではないために、仮想面130の3次元形状情報を高精度に導出することが困難となる。そのため補助情報生成部44は、画像解析装置8から提供される病変領域の位置にもとづいて、撮影中の内視鏡7の撮影範囲に関する補助情報を生成してよい。たとえば内視鏡画像における病変領域の占める割合が所定の閾値(たとえば60%)を超える場合、病変領域の周囲に十分な大きさの参照領域を確保できないため、補助情報生成部44は、内視鏡7のカメラが病変部位に近すぎることを医師に知らせるための補助情報を生成してよい。補助情報生成部44は、生成した補助情報を内視鏡観察装置5に提供し、内視鏡観察装置5は、表示装置6に当該補助情報を表示して、内視鏡7を操作する医師が確認できるようにしてよい。これにより医師は、内視鏡7のカメラが病変部位に近すぎることを認識して、カメラが病変部位から離れるように内視鏡7を動かすことができる。したがって病変領域の周囲に十分な大きさの周辺領域が確保され、仮想面導出部48が、仮想面130の3次元形状情報を高精度に導出できるようになる。
 以上、本開示を複数の実施例をもとに説明した。これらの実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。
 本開示は、病変部位の形状を計測する技術分野に利用できる。
1・・・内視鏡用形状計測システム、5・・・内視鏡観察装置、6・・・表示装置、7・・・内視鏡、8・・・画像解析装置、9・・・画像蓄積サーバ、10a,10b・・・情報処理装置、12a,12b・・・表示装置、20・・・処理装置、30・・・操作受付部、32・・・領域設定部、34・・・注目領域設定部、36・・・参照領域設定部、38・・・3次元情報取得部、40・・・画像生成部、42・・・画像解析部、44・・・補助情報生成部、46・・・表示処理部、48・・・仮想面導出部、50・・・サイズ情報特定部、60・・・学習済みモデル保持部、70・・・ユーザインタフェース。

Claims (12)

  1.  プロセッサを備えた内視鏡用形状計測システムであって、
     前記プロセッサは、
     体腔内の生体組織を内視鏡が撮影した内視鏡画像を表示装置に表示し、
     内視鏡画像に注目領域を設定するためのユーザ操作を受け付け、
     ユーザ操作にもとづいて、内視鏡画像に注目領域を設定し、
     内視鏡が撮影した生体組織の3次元形状情報を取得し、
     注目領域とは異なる領域の3次元形状情報から、注目領域における仮想面の3次元形状情報を導出し、
     導出した仮想面の3次元形状情報から、仮想面のサイズに関する情報を特定する、
     ことを特徴とする内視鏡用形状計測システム。
  2.  前記プロセッサは、
     注目領域を取り囲む参照領域を設定し、
     参照領域の3次元形状情報から、仮想面の3次元形状情報を導出する、
     ことを特徴とする請求項1に記載の内視鏡用形状計測システム。
  3.  前記プロセッサは、
     内視鏡画像に参照領域を設定するためのユーザ操作を受け付け、
     ユーザ操作にもとづいて、内視鏡画像に参照領域を設定する、
     ことを特徴とする請求項2に記載の内視鏡用形状計測システム。
  4.  前記プロセッサは、
     生体組織の3次元形状情報にもとづいて、生体組織の3次元画像を生成し、
     生体組織の3次元画像と、注目領域の位置を示す画像とを合成して表示装置に表示する、
     ことを特徴とする請求項1に記載の内視鏡用形状計測システム。
  5.  前記プロセッサは、
     生体組織の3次元形状情報にもとづいて、生体組織の3次元画像を生成し、
     生体組織の3次元画像と、参照領域の位置を示す画像とを合成して表示装置に表示する、
     ことを特徴とする請求項2に記載の内視鏡用形状計測システム。
  6.  前記プロセッサは、
     参照領域に除外領域を設定するためのユーザ操作を受け付け、
     除外領域の3次元形状情報を除外した参照領域の3次元形状情報から、仮想面の3次元形状情報を導出する、
     ことを特徴とする請求項2に記載の内視鏡用形状計測システム。
  7.  前記プロセッサは、
     生体組織の3次元画像に、仮想面を合成して表示装置に表示する、
     ことを特徴とする請求項4に記載の内視鏡用形状計測システム。
  8.  前記プロセッサは、
     注目領域とは異なる領域の3次元形状情報から、3次元形状のフィッティング処理を行うことで、注目領域における仮想面の3次元形状情報を導出する、
     ことを特徴とする請求項1に記載の内視鏡用形状計測システム。
  9.  学習用の内視鏡画像および内視鏡画像に含まれる病変領域に関する情報を教師データとして用いた機械学習により生成された学習済みモデルであって、内視鏡画像を入力すると、病変領域の位置を出力する学習済みモデルをさらに備え、
     前記プロセッサは、
     学習済みモデルにより出力された病変領域の位置を示す情報を表示する、
     ことを特徴とする請求項1に記載の内視鏡用形状計測システム。
  10.  学習用の内視鏡画像および内視鏡画像に含まれる病変領域に関する情報を教師データとして用いた機械学習により生成された学習済みモデルであって、内視鏡画像を入力すると、病変領域の位置を出力する学習済みモデルをさらに備え、
     前記プロセッサは、
     学習済みモデルにより出力された病変領域の位置にもとづいて、撮影中の内視鏡の撮影範囲に関する補助情報を生成し、
     補助情報を表示装置に表示する、
     ことを特徴とする請求項1に記載の内視鏡用形状計測システム。
  11.  前記プロセッサは、
     注目領域にもとづいて、参照領域を設定する、
     ことを特徴とする請求項2に記載の内視鏡用形状計測システム。
  12.  体腔内の生体組織を内視鏡が撮影した内視鏡画像を表示装置に表示し、
     内視鏡画像に注目領域を設定するためのユーザ操作を受け付け、
     ユーザ操作にもとづいて、内視鏡画像に注目領域を設定し、
     内視鏡が撮影した生体組織の3次元形状情報を取得し、
     注目領域とは異なる領域の3次元形状情報から、注目領域における仮想面の3次元形状情報を導出し、
     導出した仮想面の3次元形状情報から、仮想面のサイズに関する情報を特定する、
     内視鏡用形状計測方法。
PCT/JP2021/010118 2021-03-12 2021-03-12 内視鏡用形状計測システムおよび内視鏡用形状計測方法 WO2022190366A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2023505052A JP7462255B2 (ja) 2021-03-12 2021-03-12 内視鏡用形状計測システムおよび内視鏡用形状計測方法
PCT/JP2021/010118 WO2022190366A1 (ja) 2021-03-12 2021-03-12 内視鏡用形状計測システムおよび内視鏡用形状計測方法
CN202180095271.8A CN116940274A (zh) 2021-03-12 2021-03-12 内窥镜用形状测量系统及内窥镜用形状测量方法
US18/244,394 US20230419517A1 (en) 2021-03-12 2023-09-11 Shape measurement system for endoscope and shape measurement method for endoscope

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/010118 WO2022190366A1 (ja) 2021-03-12 2021-03-12 内視鏡用形状計測システムおよび内視鏡用形状計測方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/244,394 Continuation US20230419517A1 (en) 2021-03-12 2023-09-11 Shape measurement system for endoscope and shape measurement method for endoscope

Publications (1)

Publication Number Publication Date
WO2022190366A1 true WO2022190366A1 (ja) 2022-09-15

Family

ID=83227584

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/010118 WO2022190366A1 (ja) 2021-03-12 2021-03-12 内視鏡用形状計測システムおよび内視鏡用形状計測方法

Country Status (4)

Country Link
US (1) US20230419517A1 (ja)
JP (1) JP7462255B2 (ja)
CN (1) CN116940274A (ja)
WO (1) WO2022190366A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024195100A1 (ja) * 2023-03-23 2024-09-26 日本電気株式会社 内視鏡検査支援装置、内視鏡検査支援方法、及び、記録媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9412054B1 (en) * 2010-09-20 2016-08-09 Given Imaging Ltd. Device and method for determining a size of in-vivo objects
JP2018197674A (ja) * 2017-05-23 2018-12-13 オリンパス株式会社 計測装置の作動方法、計測装置、計測システム、3次元形状復元装置、およびプログラム
US20190043188A1 (en) * 2017-08-04 2019-02-07 CapsoVision, Inc. Method and Apparatus for Area or Volume of Object of Interest from Gastrointestinal Images
CN110811491A (zh) * 2019-12-05 2020-02-21 中山大学附属第一医院 一种具有三维重建功能的在线疾病识别内窥镜

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9412054B1 (en) * 2010-09-20 2016-08-09 Given Imaging Ltd. Device and method for determining a size of in-vivo objects
JP2018197674A (ja) * 2017-05-23 2018-12-13 オリンパス株式会社 計測装置の作動方法、計測装置、計測システム、3次元形状復元装置、およびプログラム
US20190043188A1 (en) * 2017-08-04 2019-02-07 CapsoVision, Inc. Method and Apparatus for Area or Volume of Object of Interest from Gastrointestinal Images
CN110811491A (zh) * 2019-12-05 2020-02-21 中山大学附属第一医院 一种具有三维重建功能的在线疾病识别内窥镜

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024195100A1 (ja) * 2023-03-23 2024-09-26 日本電気株式会社 内視鏡検査支援装置、内視鏡検査支援方法、及び、記録媒体

Also Published As

Publication number Publication date
CN116940274A (zh) 2023-10-24
JP7462255B2 (ja) 2024-04-05
JPWO2022190366A1 (ja) 2022-09-15
US20230419517A1 (en) 2023-12-28

Similar Documents

Publication Publication Date Title
JP5380348B2 (ja) 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP5676058B1 (ja) 内視鏡システム及び内視鏡システムの作動方法
US9516993B2 (en) Endoscope system
JP6371729B2 (ja) 内視鏡検査支援装置、内視鏡検査支援装置の作動方法および内視鏡支援プログラム
US8767057B2 (en) Image processing device, image processing method, and program
JP5421828B2 (ja) 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム
JP6254053B2 (ja) 内視鏡画像診断支援装置、システムおよびプログラム、並びに内視鏡画像診断支援装置の作動方法
JP5486432B2 (ja) 画像処理装置、その作動方法およびプログラム
KR20130108320A (ko) 관련 애플리케이션들에 대한 일치화된 피하 해부구조 참조의 시각화
JP2017508529A (ja) 内視鏡測定システム及び方法
CN111867438A (zh) 手术辅助设备、手术方法、非暂时性计算机可读介质和手术辅助系统
US10631826B2 (en) Medical apparatus, medical-image generating method, and recording medium on which medical-image generating program is recorded
JP2012024518A (ja) 内視鏡観察を支援する装置および方法、並びに、プログラム
JP3910239B2 (ja) 医用画像合成装置
JP6022133B2 (ja) 医療装置
EP3298949B1 (en) Image processing apparatus, image processing method, and surgical system
JP2018153346A (ja) 内視鏡位置特定装置、方法およびプログラム
US20230419517A1 (en) Shape measurement system for endoscope and shape measurement method for endoscope
JP2002253480A (ja) 医療処置補助装置
JP2017205343A (ja) 内視鏡装置、内視鏡装置の作動方法
US20220225860A1 (en) Medical imaging system, medical imaging processing method, and medical information processing apparatus
JP2011024913A (ja) 医用画像処理装置、医用画像処理プログラム、及びx線ct装置
EP3595299A1 (en) Medical image display control device, medical image display device, medical information processing system, and medical image display control method
EP3782529A1 (en) Systems and methods for selectively varying resolutions
JP2018047117A (ja) 内視鏡位置検出装置、内視鏡位置検出装置の作動方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21930218

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023505052

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202180095271.8

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21930218

Country of ref document: EP

Kind code of ref document: A1