[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2023286334A1 - システム、プログラム及びエネルギー出力調整方法 - Google Patents

システム、プログラム及びエネルギー出力調整方法 Download PDF

Info

Publication number
WO2023286334A1
WO2023286334A1 PCT/JP2022/009691 JP2022009691W WO2023286334A1 WO 2023286334 A1 WO2023286334 A1 WO 2023286334A1 JP 2022009691 W JP2022009691 W JP 2022009691W WO 2023286334 A1 WO2023286334 A1 WO 2023286334A1
Authority
WO
WIPO (PCT)
Prior art keywords
tissue
energy
image
information
control unit
Prior art date
Application number
PCT/JP2022/009691
Other languages
English (en)
French (fr)
Inventor
豪 新井
秀元 笠原
雅敏 飯田
新二 安永
吉隆 本田
一恵 田中
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2023535109A priority Critical patent/JP7493684B2/ja
Priority to CN202280014637.9A priority patent/CN116887771A/zh
Publication of WO2023286334A1 publication Critical patent/WO2023286334A1/ja
Priority to US18/234,168 priority patent/US20230380695A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0093Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • A61B18/14Probes or electrodes therefor
    • A61B18/1442Probes having pivoting end effectors, e.g. forceps
    • A61B18/1445Probes having pivoting end effectors, e.g. forceps at the distal end of a shaft, e.g. forceps or scissors at the end of a rigid rod
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N7/00Ultrasound therapy
    • A61N7/02Localised ultrasound hyperthermia
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/40ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B2017/0042Surgical instruments, devices or methods with special provisions for gripping
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00571Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for achieving a particular surgical effect
    • A61B2018/00577Ablation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00636Sensing and controlling the application of energy
    • A61B2018/00696Controlled or regulated parameters
    • A61B2018/00702Power or energy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00636Sensing and controlling the application of energy
    • A61B2018/00773Sensed parameters
    • A61B2018/00791Temperature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00636Sensing and controlling the application of energy
    • A61B2018/00898Alarms or notifications created in response to an abnormal condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0538Measuring electrical impedance or conductance of a portion of the body invasively, e.g. using a catheter
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4848Monitoring or testing the effects of treatment, e.g. of medication
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • A61B5/6847Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive mounted on an invasive device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Definitions

  • the present invention relates to systems, programs, energy output adjustment methods, and the like.
  • Patent Literature 1 discloses a surgical system that determines the type of tissue grasped by an energy device based on energy device energy output data and tissue position, patient status, or optical tissue sensor information. For example, vascular or non-vascular, presence or absence of nerves, etc. are recognized as tissue types. This surgical system stops energy output and warns the user when the treatment content for the recognized type is inappropriate.
  • Patent Document 1 does not consider the degree of heat diffusion to or around the tissue to be treated or the prevention of heat diffusion, the energy output is appropriately adjusted according to the state of the tissue or device during treatment by the energy device.
  • I have a problem that I can't.
  • the degree of thermal diffusion varies depending on the thickness of the tissue to be treated, or the effects of wetting due to immersion in body fluids or the like.
  • the degree of heat diffusion varies depending on various manipulation amounts such as the amount of tissue grasped by the energy device or the strength of traction.
  • providing various sensors such as an optical tissue sensor is not preferable from the viewpoint of sterilization.
  • One aspect of the present disclosure is a learning device tissue image that is an image in which at least one energy device that receives energy supply and outputs energy and at least one biological tissue is imaged, or the at least one biological tissue is imaged learned to output image recognition information that is at least one of tissue information about the at least one living tissue or treatment information about treatment for the at least one living tissue from a learning tissue image that is an image obtained by learning a storage unit that stores a model; and a control unit, wherein the control unit acquires a captured image that is an image of the at least one energy device and the at least one biological tissue, and stores the captured image in the storage unit.
  • another aspect of the present disclosure is to acquire a captured image that is an image of at least one energy device that receives energy supply and outputs energy and at least one living tissue, and the at least one energy device. and tissue information about the at least one biological tissue from a learning device tissue image that is an image of the at least one biological tissue or a learning tissue image that is an image of the at least one biological tissue; or estimating the image recognition information from the captured image by processing based on a trained model trained to output image recognition information, which is at least one piece of treatment information relating to treatment of the at least one living tissue; A program that causes a computer to output an energy output adjustment instruction based on the estimated image recognition information to a generator that controls the amount of energy supplied to an energy device based on the energy output adjustment instruction. do.
  • Configuration example of the controller. 4 is a flowchart for explaining processing performed by the controller and system;
  • a second example of recognition processing when the control unit recognizes the tissue state An example of output adjustment when the control unit recognizes the tissue condition.
  • An example of processing when the control unit recognizes the amount of tissue gripping A first example of recognition processing when the control unit recognizes the amount of tissue grasped.
  • a second example of recognition processing when the control unit recognizes the amount of tissue grasped An example of output adjustment when the control unit recognizes the amount of tissue grasped.
  • An example of processing when the control unit recognizes tissue tension A first example of recognition processing when the control unit recognizes tissue tension.
  • a second example of recognition processing when the control unit recognizes tissue tension An example of output adjustment when the control unit recognizes tissue tension.
  • Example display of information about energy output adjustment. 6 is a flowchart of processing when image recognition results and device information are used together; Output adjustment example when using a combined device. Output adjustment example when using a combined device. Output adjustment example when using a combined device. Output adjustment example when using a combined device. Output adjustment example when using a combined device. Output adjustment example when using a combined device.
  • FIG. 1 is a configuration example of a system 10 in this embodiment.
  • FIG. 1 shows an example of a system configuration for photographing an operative field with an endoscope.
  • System 10 shown in FIG. 1 includes controller 100 , endoscope system 200 , generator 300 and energy device 310 .
  • System 10 is a surgical system for performing surgery using at least one energy device under an endoscope. Although an example in which the system 10 includes one energy device 310 is shown here, the system 10 may include multiple energy devices.
  • the endoscope system 200 is a system that performs imaging with an endoscope, image processing of endoscopic images, and monitor display of endoscopic images.
  • Endoscope system 200 includes endoscope 210 , main unit 220 and display 230 .
  • a rigid endoscope for surgical operation will be described as an example.
  • the endoscope 210 includes an insertion section to be inserted into a body cavity, an operation section connected to the proximal end of the insertion section, a universal cord connected to the proximal end of the operation section, and connected to the proximal end of the universal cord. and a connector portion.
  • the insertion section includes a rigid tube, an objective optical system, an imaging device, an illumination optical system, a transmission cable, and a light guide.
  • An objective optical system and an imaging element for photographing the inside of the body cavity, and an illumination optical system for illuminating the inside of the body cavity are provided at the distal end of an elongated cylindrical rigid tube.
  • the distal end of the rigid tube may be configured to be bendable.
  • a transmission cable that transmits an image signal acquired by the imaging element and a light guide that guides illumination light to the illumination optical system are provided inside the rigid tube.
  • the operation unit is held by a user and receives operations from the user.
  • the operation unit is provided with buttons to which various functions are assigned.
  • the operation section is provided with an angle operation lever.
  • the connector section includes a video connector that detachably connects a transmission cable to main device 220 and a light guide connector that detachably connects a light guide to main device 220 .
  • the main device 220 includes a processing device that performs endoscope control, image processing of an endoscopic image, and display processing of an endoscopic image, and a light source device that generates and controls illumination light.
  • the main unit 220 is also called a video system center.
  • the processing device is composed of a processor such as a CPU, processes an image signal transmitted from the endoscope 210 to generate an endoscopic image, and outputs the endoscopic image to the display 230 and the controller 100 .
  • the illumination light emitted by the light source device is guided by the light guide to the illumination optical system and emitted from the illumination optical system into the body cavity.
  • the energy device 310 outputs energy such as high-frequency power or ultrasonic waves from its tip, and performs treatments such as coagulation, sealing, hemostasis, incision, dissection, or ablation on the tissue with which the tip is in contact.
  • the energy device 310 is also called an energy treatment instrument.
  • the energy device 310 includes a monopolar device that applies high-frequency power between the electrode at the tip of the device and an electrode outside the body, a bipolar device that applies high-frequency power between two jaws, a probe and jaws, and ultrasonic waves from the probe.
  • An ultrasound device that emits ultrasonic waves, or a combination device that applies high-frequency power between a probe and a jaw and emits ultrasonic waves from the probe.
  • the generator 300 supplies energy to the energy device 310 , controls the energy supply, and acquires electrical information from the energy device 310 .
  • the generator 300 supplies RF power and the energy device 310 outputs that RF power from the electrodes or jaws.
  • the generator 300 supplies power, and the probe of the energy device 310 converts that power into ultrasound and outputs it.
  • the electrical information is the electrical information of the tissue with which the electrodes or jaws of the energy device 310 are in contact. Specifically, it is the information obtained as a response to the energy device 310 outputting high-frequency power to the tissue. Electrical information is, for example, impedance information of tissue treated by energy device 310 . However, the electrical information is not limited to impedance information as will be described later.
  • the generator 300 performs control to temporally change the energy output from the energy device 310 according to the output sequence.
  • Generator 300 may vary its energy output in response to changes in impedance information over time.
  • the output sequence may define how the energy output varies with changes in the impedance information.
  • the generator 300 may automatically turn off the energy output according to the temporal change of the impedance information. For example, the generator 300 may determine that the treatment is completed and turn off the energy output when the impedance rises above a certain level.
  • the controller 100 recognizes tissue information, treatment information, or both from the endoscopic image by image recognition processing using machine learning or the like, and outputs an energy output adjustment instruction to the generator based on the recognized information.
  • the tissue information, treatment information, or both recognized from the endoscopic image will also be referred to as image recognition information. These pieces of information are specifically information on matters that affect the degree of heat diffusion in treatment by the energy device 310 .
  • the tissue information is information about tissue treated by the energy device 310, including tissue type or tissue condition, for example.
  • the treatment information is information relating to treatment for tissue, and specifically, information such as the action of a device used for treatment on tissue, the result of that action, or the positional relationship between the device and tissue.
  • the device here may be the energy device 310 or some other device.
  • Treatment information includes, for example, the amount of tissue grasping, the amount of traction, tissue tension, or the distance between the tip of energy device 310 and surrounding tissue.
  • the generator 300 adjusts the energy output of the energy device 310 according to the energy output adjustment instruction. That is, the system 10 of this embodiment is a system that automatically adjusts the energy output from the energy device 310 based on the endoscopic image.
  • the generator 300 supplies energy to the energy device 310 at the energy supply amount instructed by the energy output adjustment instruction, and the energy device 310 receives the energy supply and outputs energy, so that the energy output is increased according to the energy output adjustment instruction. adjusted.
  • the energy output adjustment instruction is an instruction to increase or decrease the output of the entire waveform of the output sequence, or an instruction to set one of a plurality of selectable output sequences.
  • the energy output adjustment instructions are instructions indicating the stepwise scale factor for the energy output.
  • the generator 300 increases or decreases the high frequency output or the ultrasonic output according to the indicated magnification. If the energy output adjustment instruction is given before the start of the output sequence, the entire waveform of the output sequence is multiplied by a factor to increase or decrease the output of the entire output sequence. Note that the magnification may be continuously adjustable.
  • the energy output adjustment instruction is an instruction indicating any one of the plurality of output sequences.
  • Generator 300 outputs energy from energy device 310 according to the instructed output sequence.
  • the energy output adjustment instruction may include both an instruction to increase or decrease the energy output and an instruction to change the output sequence.
  • a key point when performing energy treatment in surgical operations is to suppress heat diffusion from the energy device to avoid thermal damage to surrounding organs.
  • the time required for treatment such as dissection varies due to differences in tissue type, tissue condition, individual patient, etc., and the degree of thermal diffusion varies.
  • doctors adjust the amount of tissue gripping and tissue tension, but this operation requires experience, and it may be difficult for non-experts to make appropriate adjustments. .
  • Patent Literature 1 a tissue type such as vascular or non-vascular is recognized based on energy output data of an energy device or the like.
  • the degree of thermal diffusion is not divisible only by whether it is vascular or non-vascular. It is also influenced by the doctor's manipulation such as the strength of the Specifically, heat diffusion occurs when tissue heat generated by the application of energy by the energy device diffuses within or on the surface of the surrounding tissue. Alternatively, the energy output by the energy device is also diffused around the gripped tissue, and the surrounding tissue where the energy is diffused generates heat, resulting in thermal diffusion.
  • the degree of heat diffusion varies depending on the tissue type, tissue condition, amount of tissue gripping, tissue tension, and the like.
  • the system 10 applies appropriate energy to the tissue based on image recognition information such as tissue type, tissue state, tissue grasp amount, or tissue tension. This can reduce heat diffusion from the treatment target of the energy device to the surrounding tissue.
  • the system 10 adjusts the energy output instead of adjusting the gripping amount and tension, which has been conventionally performed by the doctor, thereby reducing the burden on the doctor.
  • the system 10 autonomously adjusts the output, even an inexperienced doctor can perform stable treatment. As described above, the stability of the operation can be improved, or the technique can be made uniform regardless of the doctor's experience.
  • Controller FIG. 2 is a configuration example of the controller 100 .
  • Controller 100 includes control unit 110 , storage unit 120 , I/O device 180 and I/O device 190 .
  • 1 and 2 show an example in which the controller 100 is configured as a separate device from the generator 300.
  • the controller 100 is configured by an information processing device such as a PC or a server device.
  • the controller 100 may be realized by a cloud system in which processing is executed by one or more information processing devices connected via a network.
  • the I/O device 180 receives image data of endoscopic images from the main unit 220 of the endoscope system 200 .
  • the I/O device 180 is a connector to which a cable for image transmission is connected, or an interface circuit connected to the connector to communicate with the main device 220 .
  • the control unit 110 recognizes at least one of tissue information or treatment information from the endoscopic image by image recognition processing using the learned model 121, and outputs an energy output adjustment instruction based on the image recognition information.
  • Control unit 110 includes one or more processors as hardware.
  • the processor is a general-purpose processor such as a CPU (Central Processing Unit), GPU (Graphical Processing Unit) or DSP (Digital Signal Processor).
  • the processor may be a dedicated processor such as an ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array).
  • the storage unit 120 stores a trained model 121 used for image recognition processing.
  • storage unit 120 stores a program describing an inference algorithm and parameters used in the inference algorithm as trained model 121 .
  • image recognition processing is performed by a dedicated processor with an inference algorithm implemented as hardware, the storage unit 120 stores parameters used in the inference algorithm as a trained model 121 .
  • the storage unit 120 is a storage device such as a semiconductor memory, hard disk drive, or optical disk drive.
  • the semiconductor memory may be RAM, ROM, non-volatile memory, or the like.
  • a neural network for example, can be used as an inference algorithm for image recognition processing. Weighting factor and bias of node-to-node connection in neural network are parameters.
  • a neural network consists of an input layer that receives image data, an intermediate layer that performs arithmetic processing on the data input through the input layer, and an output layer that outputs recognition results based on the operation results output from the intermediate layer. ,including.
  • a neural network used for image recognition processing for example, a CNN (Convolutional Neural Network) can be employed.
  • the control unit 110 also includes an image acquisition unit 111 , an organization information recognition unit 112 and an output setting unit 113 .
  • the storage unit 120 stores a program in which functions of the image acquisition unit 111, the tissue information recognition unit 112, and the output setting unit 113 are described.
  • One or a plurality of processors of the control unit reads out the program from the storage unit 120 and executes the program, thereby realizing functions of the image acquisition unit 111 , the tissue information recognition unit 112 and the output setting unit 113 .
  • a program describing the function of each unit can be stored in a non-temporary information storage medium that is a computer-readable medium.
  • the information storage medium can be implemented by, for example, an optical disc, memory card, HDD, semiconductor memory, or the like.
  • the semiconductor memory is for example ROM or non-volatile memory.
  • the I/O device 190 transmits an energy output adjustment instruction signal to the generator 300 .
  • the I/O device 190 is a connector to which a signal transmission cable is connected, or an interface circuit connected to the connector to communicate with the generator 300 .
  • FIG. 3 is a flow chart explaining the processing performed by the controller 100 and the system 10.
  • FIG. 3 is a flow chart explaining the processing performed by the controller 100 and the system 10.
  • step S ⁇ b>1 the image acquisition unit 111 acquires an endoscope image from the main unit 220 of the endoscope system 200 via the I/O device 180 .
  • the tissue information recognition unit 112 acquires at least one of tissue information and treatment information as image recognition information by performing image recognition processing using the learned model 121 on the endoscopic image.
  • the output setting unit 113 outputs an energy output adjustment instruction according to the image recognition information to the generator 300 via the I/O device 190 .
  • step S4 the generator 300 receives the energy output adjustment instruction, sets the energy output sequence, and performs energy output according to the output operation performed by the doctor.
  • the doctor operates an output start button provided on the operation unit of the energy device 310 , and the generator 300 receives the operation input and starts supplying energy to the energy device 310 .
  • step S5 the energy device 310 receives energy from the generator 300 and applies energy to the tissue being grasped.
  • controller 100 and the generator 300 are configured as separate devices, and the controller 100 includes the entire control unit 110.
  • the hardware configuration of the controller 100 and the generator 300 is not limited to this.
  • controller 100 and generator 300 may be configured as an integrated device.
  • the system 10 includes a first device and a second device, the first device includes the image acquisition unit 111 and the tissue information recognition unit 112 in the control unit 110, and the second device includes the control unit 110.
  • output setting unit 113 and generator 300 may be included.
  • the first device outputs image recognition information, which is at least one of tissue information or treatment information, to the second device, and the second device controls the energy output of the generator according to the image recognition information.
  • FIG. 4 is a configuration example of the monopolar device 320.
  • the monopolar device 320 includes an elongated cylindrical insertion portion 322, an electrode 321 provided at the distal end of the insertion portion 322, an operation portion 323 connected to the proximal end of the insertion portion 322, an operation portion 323 and a connector (not shown). and a cable 325 connecting the .
  • the connector is detachably connected to generator 300 .
  • the high-frequency power output by the generator 300 is transmitted through the cable 325 and output from the electrode 321 .
  • a counter electrode is provided outside the patient's body, and current is passed between the electrode 321 and the counter electrode. Thereby, high-frequency energy is applied to the tissue with which the electrode 321 is in contact, and Joule heat is generated in the tissue.
  • Various shapes of electrodes are employed for the electrodes 321 depending on the content of the treatment.
  • the monopolar device 320 can adjust the degree of coagulation and incision by changing the energization pattern.
  • the treatment target of the monopolar device 320 is the tissue in contact with the electrode 321, and the heat diffused around the tissue in contact with the electrode 321 may affect the surrounding tissue.
  • FIG. 5 is a configuration example of the bipolar device 330.
  • the bipolar device 330 includes an elongated cylindrical insertion portion 332, two jaws 337 and 338 provided at a distal end portion 331 of the insertion portion 332, an operation portion 333 connected to the proximal end of the insertion portion 332, and an operation portion 333. and a cable 335 connecting the connector (not shown).
  • the connector is detachably connected to generator 300 .
  • Jaws 337 and 338 are movable parts for gripping tissue and applying energy to the gripped tissue, and are configured to be openable and closable about an axis provided at proximal end 336 .
  • the operation portion 333 is provided with a grip portion for opening and closing the jaws 337 and 338 . As the doctor squeezes the grasper, the jaws 337, 338 close and grasp the tissue.
  • the high-frequency power output by the generator 300 is transmitted by the cable 335 and conducts electricity between the two jaws 337, 338 when the jaws 337, 338 grip the tissue.
  • high-frequency energy is applied to the tissue sandwiched between the two jaws 337 and 338, generating Joule heat in the tissue and coagulating the tissue.
  • the generator 300 may measure impedance information of the tissue grasped by the jaws 337, 338, detect treatment completion based on the impedance information, and automatically stop energy output.
  • the generator 300 may also automatically adjust the energy applied to the tissue based on the impedance information.
  • the device temperature of the bipolar device 330 rises only to about 100 degrees Celsius, but a wraparound current is generated around the portion gripped by the jaws 337 and 338, and the wraparound current causes heat diffusion. may occur.
  • a vessel sealing device is a device in which a cutter is provided on the jaw of a bipolar device. After coagulating tissue by energization, the tissue is cut by running the cutter.
  • FIG. 6 is a configuration example of the ultrasonic device 340.
  • the ultrasonic device 340 includes an elongated cylindrical insertion portion 342, a jaw 347 and a probe 348 provided at a distal end portion 341 of the insertion portion 342, an operation portion 343 connected to the proximal end of the insertion portion 342, and an operation portion 343. and a cable 345 connecting the connector (not shown).
  • the connector is detachably connected to generator 300 .
  • the jaw 347 is movable around an axis provided at the proximal end 346 and configured to be openable and closable with respect to the immovable probe 348 .
  • the operation portion 343 is provided with a grip portion for opening and closing the jaws 347 .
  • the operation unit 343 is provided with an operation button 344a to which the first output mode is assigned and an operation button 344b to which the second output mode is assigned.
  • the output mode is selected according to the treatment content, and when the operation button for each output mode is pressed, ultrasonic energy is output in the output sequence of that mode.
  • the power output by the generator 300 is transmitted by the cable 335, and when the operation button 344a or 344b is pressed, the probe 348 converts the power into ultrasonic waves and outputs them. As a result, frictional heat is generated in the tissue sandwiched between jaw 347 and probe 348, and the tissue is coagulated or dissected.
  • thermal diffusion of the high frequency device for example, the ultrasonic device 340 has less thermal diffusion than the high frequency device, but the device temperature of the ultrasonic device 340 rises to nearly 200 degrees Celsius. Thermal diffusion of the ultrasonic device 340 tends to occur in the tip direction of the probe 348 .
  • a combination device that uses both high-frequency power and ultrasonic waves has the same configuration as the ultrasonic device in FIG. 6, for example.
  • the combination device can generate Joule heat in the tissue gripped by the jaw and the probe by applying high-frequency power between the jaw and the probe, and coagulate the tissue. Further, the combination device can incise the tissue gripped by the jaws and the probe by outputting ultrasonic waves from the probe, like the ultrasonic device.
  • a high frequency mode is assigned to one of the two operation buttons provided on the operation unit, and a seal & cut mode is assigned to the other.
  • the high-frequency mode is a mode in which treatment such as coagulation is performed only by high-frequency energy output.
  • the seal & cut mode is a mode that uses both high-frequency energy and ultrasonic energy, and is a mode that coagulates and cuts tissue by outputting high-frequency energy.
  • thermal diffusion of combination devices for example, thermal diffusion similar to bipolar devices, thermal diffusion similar to ultrasonic devices, or both may occur.
  • the bipolar device 330 is mainly used as the energy device 310 will be described as an example. However, this embodiment is applicable when using various energy devices described above in which thermal diffusion may occur.
  • FIG. 7 shows an example of processing when the control unit 110 recognizes the type of tissue.
  • An endoscopic image is input to the control unit 110 as shown in S1A. Specifically, each frame image of the moving image captured by the endoscope is sequentially input to the control unit 110 .
  • An endoscopic image input to the control unit 110 shows one or more tissues and one or more energy devices.
  • the control unit 110 recognizes the tissue type from the endoscopic image by executing a tissue recognition program adjusted by machine learning. Specifically, the control unit 110 recognizes the type of tissue gripped by the jaws of the bipolar device or the type of tissue surrounding the gripped tissue.
  • the tissue type is the type of tissue existing inside or outside the organ, or the type of the organ itself.
  • Tissues present inside and outside an organ include, for example, arteries, veins, membranes containing blood vessels, hepatogastric ligaments, mesenteries, thin membranes, nerves, fat, and the like. Organs are, for example, the esophagus, stomach, pancreas, liver, or small intestine.
  • the control unit 110 outputs the tissue type recognized from the endoscopic image.
  • FIG. 7 shows an example in which a membrane containing blood vessels is recognized.
  • the control unit 110 issues an output change instruction according to the tissue type recognized from the endoscopic image.
  • the storage unit 120 stores table data in which energy output adjustment instructions are associated with each tissue type, and the control unit 110 refers to the table data to determine the energy output corresponding to the tissue type.
  • Generator 300 adjusts the output sequence of the bipolar device according to the energy output adjustment instruction output by control section 110 . Note that the algorithm for outputting the energy output adjustment instruction according to the tissue type is not limited to the above.
  • the energy output adjustment instruction is an instruction to increase, decrease, or maintain the energy output based on the reference energy output.
  • the generator 300 has an operation unit that accepts an energy output setting operation, and the energy output can be set to one of five levels of intensity 1 to 5, for example, by the operation unit. An intensity of 1 indicates the lowest energy output and an intensity of 5 indicates the highest energy output.
  • the reference energy output is, for example, a predetermined energy output such as "intensity 3".
  • the instruction to increase the reference energy output is an instruction to set "intensity 4" or "intensity 5"
  • the instruction to decrease the reference energy output is to set "intensity 2" or "intensity 1".
  • the reference energy output may be the current energy output set by the operator of generator 300 .
  • an instruction to increase the energy output above the reference energy output is an instruction to set the energy output higher than the currently set energy output
  • an instruction to decrease the energy output below the reference energy output is an instruction to increase the energy output below the currently set energy output.
  • the reference energy output may be a range of intensities 1-5 that can be set on the generator 300 .
  • the instruction to increase the reference energy output is an instruction to set the energy output higher than "intensity 5"
  • the instruction to decrease the reference energy output is to set the energy output lower than "intensity 1". This is an instruction to
  • FIG. 8 is a configuration example of a learning device 500 that performs machine learning for tissue recognition processing.
  • Learning device 500 includes a processing unit 510 and a storage unit 520 .
  • the learning device 500 is realized by, for example, an information processing device such as a PC or a server device.
  • learning device 500 may be realized by a cloud system in which processing is executed by one or more information processing devices connected via a network.
  • the processing unit 510 is a processor such as a CPU
  • the storage unit 520 is a storage device such as a semiconductor memory or hard disk drive.
  • the storage unit 520 stores a learning model 522 and teacher data 521 , and the processing unit 510 causes the learning model 522 to learn using the teacher data 521 to generate the trained model 121 .
  • the teacher data includes image data of a plurality of learning images and correct answer data attached to each learning image.
  • the plurality of training images includes endoscopic images showing one or more tissues and one or more energy devices. This endoscopic image is also called a learning device tissue image. Also, the plurality of training images may include endoscopic images that show one or more tissues and do not show the energy device. This endoscopic image is also called a learning tissue image.
  • Correct data are annotations in segmentation (area detection), annotations in detection (position detection), correct labels in classification, or correct labels in regression (regression analysis).
  • the processing unit 510 inputs a learning image to the inference processing by the learning model 522, feeds back to the learning model 522 based on the error between the result of the inference processing and the correct data, and repeats it with a large number of teacher data. , to generate a trained model 121 .
  • the generated learned model 121 is transferred to the storage unit 120 of the controller 100 .
  • the teacher data 521 includes, as learning images, an image of a membrane including blood vessels, an image of the hepatogastric ligament, an image of a blood vessel (artery), an image of a solid organ (pancreas), This includes mesenteric images, thin film images, solid organ images (liver), solid organ images (esophagus), and the like.
  • the teacher data 521 also includes, as correct data, annotations attached to regions of tissues appearing in each learning image, or labels indicating types of tissues appearing in each learning image.
  • FIG. 9 is a first recognition processing example when the control unit 110 recognizes the tissue type.
  • the control unit 110 performs tissue region recognition by segmentation and treatment instrument tip region detection by segmentation, and recognizes the type of tissue gripped by the jaws by synthesizing the results.
  • FIG. 9 shows an example in which "the tissue type is membrane tissue" is recognized. Note that the control unit 110 may monitor the segmentation result, the tissue type recognition result, or both.
  • the trained model 121 includes a first trained model for tissue region recognition and a second trained model for treatment instrument tip region detection.
  • the control unit 110 detects a region for each tissue type from the endoscopic image by image recognition processing using the first trained model. This maps the tissue type to the endoscopic image.
  • FIG. 9 shows an example in which a stomach region, a liver region, and a membrane region are detected from an endoscopic image.
  • the learning device 500 generates a first trained model using, as training data, endoscopic images with annotations attached to regions of each tissue type.
  • the control unit 110 detects the jaw region of the tip of the energy device from the endoscopic image by image recognition processing using the second trained model. This identifies the position held by the jaw in the endoscopic image.
  • the learning device 500 In the learning stage, the learning device 500 generates a second trained model using, as teacher data, an endoscopic image in which the jaw region at the tip of the energy device is annotated.
  • the system may be configured such that the tissue region recognition and the treatment instrument tip region detection are realized by one trained model without separating the trained model for each process.
  • the control unit 110 determines which of the one or a plurality of tissue regions detected by the tissue region recognition overlaps the region of the jaw detected by the detection of the distal end region of the treatment instrument. Recognize the type of tissue grasped.
  • FIG. 10 is a second recognition processing example when the control unit 110 recognizes the tissue type.
  • the control unit 110 recognizes the type of tissue gripped by the jaws by detecting the distal end of the treatment instrument by detection and classifying the type of tissue to be gripped by classification.
  • the trained model 121 includes a first trained model for detecting the distal end of the treatment instrument and a second trained model for classifying the types of grasped tissues.
  • the control unit 110 detects the position of the jaw from the endoscopic image by image recognition processing using the first trained model, and generates a bounding box containing the jaw. As a result, the gripping position and the attention area around it are specified.
  • the learning device 500 generates a first trained model using an endoscopic image attached with a bounding box containing Jaw as teacher data.
  • the control unit 110 cuts out an image within the bounding box from the endoscopic image, and inputs the image to image recognition processing using the second trained model, thereby determining the type of tissue reflected in the image within the bounding box. Classify. As a result, it is specified which type of tissue is captured in the image within the bounding box.
  • learning device 500 generates a second trained model using endoscopic images labeled with the type of tissue grasped by the jaws as teacher data.
  • the control unit 110 outputs the result of classification of the type of grasped tissue as the recognition result of the type of tissue grasped by the jaw.
  • FIG. 11 is an example of output adjustment when the control unit 110 recognizes the tissue type.
  • the recognition result of the tissue type is a tissue such as a thin film that is easily cut by the energy device
  • the control unit 110 weakens the energy output more than under normal conditions.
  • the normal condition is the reference energy output mentioned above.
  • the control unit 110 increases the energy output more than under normal conditions. Control unit 110 does not change the energy output from the normal condition when the tissue type recognition result is tissue other than the above.
  • FIG. 31 shows an example of output adjustment when using a combined device.
  • the control unit 110 performs any of the output adjustments. For example, when a “thin film” is recognized from an image, the control unit 110 may (1) “lower the HF output level”, (2) “shorten the HF output time, lower the S&C mode level”, or ( 3) Make any output adjustment out of "Use US only output”. "HF” means high frequency, “S&C” means seal & cut, and "US” means ultrasonic.
  • the control unit 110 adjusts the energy output based on the result of the image recognition processing, the energy output may be adjusted using device information as well, as will be described later.
  • FIG. 12 shows an example of processing when the control unit 110 recognizes the tissue condition. It should be noted that portions different from the processing example of FIG. 7 will be mainly described, and descriptions of portions similar to the processing example of FIG. 7 will be appropriately omitted.
  • An endoscopic image is input to the control unit 110 as shown in S1B.
  • the control unit 110 recognizes tissue conditions from endoscopic images by executing a tissue recognition program adjusted by machine learning. Specifically, the controller 110 recognizes the state of the tissue gripped by the jaws of the bipolar device.
  • Tissue conditions are conditions that can affect heat diffusion during treatment with an energy device, ie, conditions that vary the extent of heat diffusion.
  • the tissue condition is, for example, the amount of tissue surrounding the tissue gripped by the jaws, the immersion amount of the tissue gripped by the jaws or its surrounding tissue, or the amount of fat in the tissue gripped by the jaws.
  • the amount of immersion is the amount of liquid covering the tissue, for example, the amount of immersion by body fluids such as blood or lymph.
  • the control unit 110 outputs the tissue state recognized from the endoscopic image.
  • FIG. 12 shows an example in which a large amount of blood immersion was recognized, ie the tissue surface was wet.
  • control unit 110 issues an output change instruction according to the tissue state recognized from the endoscopic image.
  • the output change instruction method is the same as S3A in FIG.
  • the training data 521 in the learning stage includes, as learning images, images with a large or small amount of surrounding tissue, images with a large or small amount of liquid immersion, images with a large or small amount of fat, and the like.
  • the teacher data 521 also includes, as correct data, a label indicating the state of the tissue shown in each learning image.
  • FIG. 13 to 15 are examples of first recognition processing when the control unit 110 recognizes the tissue state.
  • FIG. 13 shows an example in which the amount of surrounding tissue is recognized as the tissue condition.
  • the control unit 110 recognizes the tissue state area by segmentation and detects the treatment instrument tip area by segmentation, and recognizes the state of the tissue gripped by the jaws by synthesizing the results.
  • FIG. 13 shows an example in which "the amount of surrounding tissue is small" is recognized. Note that the control unit 110 may monitor the segmentation result, the tissue state recognition result, or both.
  • the trained model 121 includes a first trained model for tissue state area recognition and a second trained model for treatment instrument tip area detection.
  • the control unit 110 detects a region for each tissue state from the endoscopic image by image recognition processing using the first trained model. This maps the tissue state to the endoscopic image.
  • FIG. 13 shows an example in which a region with a small amount of perivascular tissue and a region with a large amount of perivascular tissue are detected.
  • the learning device 500 generates a first trained model using endoscopic images with annotations attached to regions for each tissue condition as teacher data.
  • the training data includes images annotated in areas with high amounts of perivascular tissue, areas with low amounts of perivascular tissue, or areas with both.
  • the control unit 110 detects the jaw region of the tip of the energy device from the endoscopic image by image recognition processing using the second trained model. This process is the same as the treatment instrument tip area detection in FIG.
  • the control unit 110 determines which tissue state region of one or a plurality of tissue state regions detected by tissue state region recognition overlaps the jaw region detected by the treatment instrument distal end region detection. , to recognize the state of the tissue gripped by the jaws.
  • FIG. 14 shows an example in which fat mass is recognized as a tissue condition.
  • FIG. 14 shows an example in which the control unit 110 detects an area with a lot of fat in the tissue state area recognition, and recognizes "a lot of fat" in the tissue state recognition.
  • the training data for the training phase includes images annotated with regions of high fat mass, low fat mass, or both.
  • FIG. 15 shows an example in which the immersion amount is recognized as the tissue condition.
  • FIG. 15 shows an example in which an area with a large amount of immersion, that is, a wet area is detected in tissue condition area recognition, and "large amount of immersion" is recognized in tissue condition recognition.
  • the training data for the learning stage includes images annotated in areas of high immersion, low immersion, or both.
  • FIG. 16 is a second recognition processing example when the control unit 110 recognizes the tissue state.
  • the control unit 110 recognizes the state of the tissue gripped by the jaws by detecting the distal end of the treatment instrument by detection and classifying the gripped tissue state by classification.
  • the trained model 121 includes a first trained model for detecting the distal end of the treatment instrument and a second trained model for classifying the gripped tissue state.
  • the control unit 110 detects the position of the jaw from the endoscopic image by image recognition processing using the first trained model, and generates a bounding box containing the jaw. This process is similar to the detection of the distal end of the treatment instrument in FIG.
  • the control unit 110 extracts an image within the bounding box from the endoscopic image, and inputs the image to image recognition processing using the second trained model, thereby recognizing the state of the tissue reflected in the image within the bounding box. Classify. As a result, it is specified in which state the image within the bounding box is the image in which the tissue is grasped.
  • the learning device 500 generates a second trained model using endoscopic images with labels indicating the state of the tissue gripped by the jaws as teacher data.
  • the control unit 110 outputs the result of classification of the state of the grasped tissue as the recognition result of the state of the tissue grasped by the jaws.
  • FIG. 17 is an example of output adjustment when the control unit 110 recognizes the tissue condition.
  • the control unit 110 weakens the energy output more than under normal conditions when the recognition result of the tissue state indicates a state in which the energy device should be tightly sealed over time.
  • the state is, for example, a state in which the amount of surrounding tissue is small.
  • the control unit 110 increases the energy output more than under normal conditions.
  • the condition is, for example, a high fat condition or a high blood soak condition. Control unit 110 does not change the energy output from the normal condition when the tissue type recognition result is tissue other than the above.
  • FIG. 32 shows an example of output adjustment when using a combined device.
  • the control unit 110 performs any of the output adjustments.
  • the control unit 110 adjusts the energy output based on the result of the image recognition processing, the energy output may be adjusted using device information as well, as will be described later.
  • FIG. 18 shows a processing example when the control unit 110 recognizes the tissue grip amount. It should be noted that portions different from the processing example of FIG. 7 will be mainly described, and descriptions of portions similar to the processing example of FIG. 7 will be appropriately omitted.
  • An endoscopic image is input to the control unit 110 as shown in S1C.
  • the control unit 110 recognizes the tissue grasp amount from the endoscopic image by executing a tissue recognition program adjusted by machine learning. Specifically, the control unit 110 recognizes the grasping amount when the jaws of the bipolar device grasp the tissue.
  • the amount of grip is the length of the jaw gripping tissue or the percentage of the total length of the jaw gripping tissue. A state in which the tissue is shallowly grasped with the jaws is called a short pitch, and a state in which the tissue is deeply grasped with the jaws is called a long pitch.
  • a case where the gripping amount is less than or equal to a threshold is called a short pitch
  • a case where the gripping amount is greater than or equal to the threshold is called a long pitch.
  • the control unit 110 recognizes whether the pitch is short or long by comparing the gripping amount recognized from the endoscopic image with the threshold.
  • FIG. 18 shows an example in which the tissue grasp amount is recognized as a short pitch.
  • control unit 110 issues an output change instruction according to the tissue gripping amount recognized from the endoscopic image.
  • the output change instruction method is the same as S3A in FIG.
  • the training data 521 in the learning stage includes images of various grip amounts as learning images.
  • the teacher data 521 includes a short-pitch image whose grip amount is less than or equal to a threshold and a long-pitch image whose grip amount is greater than or equal to the threshold.
  • the teacher data 521 includes, as correct data, a label indicating the amount of grasped tissue shown in each learning image.
  • the label may be information indicating the length of the portion of the jaw that grips the tissue, the percentage of the total length of the jaw that grips the tissue, short pitch or long pitch, or the like.
  • FIG. 19 is a first recognition processing example when the control unit 110 recognizes the tissue grasp amount.
  • the control unit 110 detects the tip of the treatment instrument by detection and classifies the amount of tissue grasped by classification, thereby recognizing the amount of tissue grasped by the jaw.
  • Classification of the amount of grasped tissue is to classify to which of a plurality of classes the amount of grasped jaw shown in the endoscopic image belongs.
  • a plurality of classes indicate grasping amount ranges separated in stages. For example, the classes are separated by increments of a predetermined length, such as 1 mm increments, or by increments of a predetermined ratio, such as 10% increments when the total length of the jaw is 100%.
  • the trained model 121 includes a first trained model for detecting the distal end of the treatment instrument and a second trained model for classifying the amount of tissue gripping.
  • the control unit 110 detects the position of the jaw from the endoscopic image by image recognition processing using the first trained model, and generates a bounding box containing the jaw. This process is similar to the detection of the distal end of the treatment instrument in FIG.
  • the control unit 110 cuts out an image within the bounding box from the endoscopic image, and inputs the image to image recognition processing using the second trained model, thereby grasping the tissue of the jaw reflected in the image within the bounding box. Classify quantity. As a result, it is specified what kind of tissue grasp amount the image within the bounding box is.
  • the learning device 500 generates a second trained model using endoscopic images labeled with a tissue grasp amount of Joe as teacher data.
  • the control unit 110 determines whether the pitch is short or long by comparing the result of the classification of the amount of tissue grasped with a threshold, and outputs the determination result as the recognition result of the amount of tissue grasped.
  • FIG. 19 shows an example of short pitch determination.
  • FIG. 20 is a second example of recognition processing when the control unit 110 recognizes the amount of tissue grasped.
  • the control unit 110 estimates the quantitative positional relationship between the feature point of the distal end of the treatment instrument and the tissue gripped by the jaws by classification or regression, and calculates the amount of tissue gripping from the estimation result. .
  • the control unit 110 estimates the distance x [mm] from the proximal end of the jaw to the proximal end of the grasped tissue by image recognition processing using the learned model 121 .
  • the proximal end of the grasped tissue is the end of the tissue grasped by the jaws that is closest to the proximal ends of the jaws.
  • the control unit 110 classifies to which of a plurality of classes the distance x belongs. A plurality of classes indicate distance ranges separated in stages.
  • the controller 110 estimates the distance x itself from the proximal end of the jaw to the proximal end of the grasped tissue from the endoscopic image.
  • the learning device 500 In the learning stage, the learning device 500 generates a trained model 121 using endoscopic images labeled with distance information indicating the distance x from the proximal end of the jaw to the proximal end of the grasped tissue as teacher data. .
  • the distance information is the class to which the distance x belongs when classification is used and the distance x when regression is used.
  • the control unit 110 determines whether the pitch is short or long by comparing the amount of gripping with a threshold value, and outputs the determination result as the recognition result of the amount of tissue gripping.
  • FIG. 20 shows an example of short pitch determination.
  • FIG. 21 is an example of output adjustment when the control unit 110 recognizes the amount of tissue grasped.
  • the control unit 110 weakens the energy output from the normal condition when the recognition result of the tissue grasping amount is a grasping amount that can be easily cut by the energy device. For example, when the control unit 110 recognizes a short pitch in which the amount of tissue gripping is equal to or less than a threshold, the control unit 110 weakens the energy output compared to normal conditions. The control unit 110 does not change the energy output from the normal condition when the recognition result of the tissue grasping amount is a tissue grasping amount other than the above.
  • FIG. 33 shows an example of output adjustment when using a combined device.
  • the control unit 110 performs any of the output adjustments.
  • the control unit 110 adjusts the energy output based on the result of the image recognition processing, the energy output may be adjusted using device information as well, as will be described later.
  • FIG. 22 shows an example of processing when the control unit 110 recognizes tissue tension. It should be noted that portions different from the processing example of FIG. 7 will be mainly described, and descriptions of portions similar to the processing example of FIG. 7 will be appropriately omitted.
  • tissue tension is the tension on the tissue grasped by the jaws of the bipolar device. This tension is generated by pulling the tissue with a bipolar device or pulling the tissue with a treatment tool such as forceps. Appropriate tension on the tissue allows proper treatment by the energy device. However, in the case of inappropriate tissue tension such as weak tension, treatment with the energy device takes time and thermal diffusion is likely to occur.
  • the control unit 110 recognizes a score, which is an evaluation value of the tension applied to the tissue gripped by the jaws, from the endoscopic image.
  • the control unit 110 compares the tissue tension score recognized from the endoscopic image with a threshold value, and outputs the result.
  • FIG. 22 shows an example in which the tissue tension score is below the threshold, ie, the tissue tension is recognized as inappropriate.
  • control unit 110 issues an output change instruction according to the tissue tension recognized from the endoscopic image.
  • the output change instruction method is the same as S3A in FIG.
  • the training data 521 in the learning stage includes images of various tissue tensions as learning images.
  • the teacher data 521 also includes, as correct data, an evaluation area for which a score is to be calculated, and a score calculated from the image of the evaluation area.
  • FIG. 23 shows a first recognition processing example when the control unit 110 recognizes tissue tension.
  • the control unit 110 outputs a tissue tension score by estimating tissue tension based on regression.
  • the control unit 110 detects an evaluation region targeted for tension evaluation from the endoscopic image by image recognition processing using a trained model, and estimates the tissue tension from the image within the evaluation region. do.
  • the control unit 110 outputs a high score when appropriate tension is applied to the tissue in the treatment shown in the endoscopic image.
  • the learning device 500 generates a trained model using, as teacher data, endoscopic images to which information designating an evaluation region and tissue tension scores are added.
  • the training data may be moving images, that is, time-series images.
  • the motion picture captures an operation of pulling a tissue with an energy device or forceps, and the motion picture is associated with an evaluation region and one score.
  • the score is quantified based on the hue, chroma, brightness, brightness of the tissue captured in the endoscopic image or moving image, tissue movement information due to traction, or the like. A score obtained by the quantification is given to each endoscopic image or moving image for learning.
  • FIG. 24 is a second example of recognition processing when the control unit 110 recognizes tissue tension.
  • the control unit 110 detects the distal end of the treatment instrument by detection, sets an evaluation region based on the detection result, and estimates the tissue tension by regression with respect to the image within the evaluation region.
  • control unit 110 includes a first trained model for detecting the distal end of the treatment instrument and a second trained model for estimating the tissue tension.
  • the control unit 110 detects the position of the jaw from the endoscopic image by image recognition processing using the first trained model.
  • Control unit 110 sets an evaluation region around the jaw according to a predetermined rule based on the detected position of the jaw.
  • the predetermined rule is, for example, a rule such as setting a range within a predetermined distance centering on the position of the jaw as the evaluation area.
  • the learning apparatus 500 generates a first trained model using an endoscopic image annotated with an annotation indicating the position of the tip of the device, that is, the position of the jaw of the bipolar device, as teacher data.
  • the control unit 110 outputs a tissue tension score by estimating the tissue tension from the image within the evaluation region through image recognition processing using the second trained model.
  • the learning device 500 generates a trained model using endoscopic images or moving images scored for tissue tension as training data.
  • FIG. 25 is an example of output adjustment when the control unit 110 recognizes tissue tension.
  • the control unit 110 increases the energy output more than in normal conditions. For example, when the tissue tension score is equal to or less than the threshold, the control unit 110 increases the energy output more than under normal conditions.
  • the control unit 110 does not change the energy output from the normal condition when the tissue tension recognition result indicates tissue tension other than the above.
  • FIG. 34 shows an example of output adjustment when using a combined device.
  • the control unit 110 performs any of the output adjustments.
  • the control unit 110 adjusts the energy output based on the result of the image recognition processing, the energy output may be adjusted using device information as well, as will be described later.
  • FIG. 26 is an example of processing when the control unit 110 recognizes the distance between the tip of the treatment instrument and the target of attention. It should be noted that portions different from the processing example of FIG. 7 will be mainly described, and descriptions of portions similar to the processing example of FIG. 7 will be appropriately omitted.
  • An endoscopic image is input to the control unit 110 as shown in S1E.
  • the control unit 110 executes a tissue recognition program adjusted by machine learning to recognize the distance between the distal end of the treatment instrument and the attention target from the endoscopic image.
  • the distance between the distal end of the treatment instrument and the attention target is the shortest distance between an arbitrary point within the jaw region and an arbitrary point within the attention target in the endoscopic image.
  • a target of attention is an organ, tissue, or instrument for which the effects of thermal diffusion should be noted.
  • the target of attention may be the pancreas, major vessels, clips, or the like. If the target of attention is an organ or tissue, the organ or tissue may be affected by thermal diffusion.
  • the control unit 110 compares the distance recognized from the endoscopic image with a threshold, and outputs the result.
  • FIG. 26 shows an example in which the distance is equal to or less than the threshold, that is, the distal end of the treatment instrument and the attention target are recognized as close.
  • control unit 110 issues an output change instruction according to the distance recognized from the endoscopic image.
  • the output change instruction method is the same as S3A in FIG.
  • the training data 521 in the learning stage includes images showing various objects of attention as learning images.
  • the teacher data 521 also includes, as correct answer data, distance information indicating the distance between the jaw in the image and the attention target.
  • FIG. 27 is a first recognition processing example when the control unit 110 recognizes the distance between the distal end of the treatment instrument and the attention target.
  • the control unit 110 performs region recognition of the distal end of the treatment instrument and tissue by segmentation, and estimation of the distance between two points by regression.
  • Control unit 110 compares the estimated distance between the two points with a threshold, and determines whether the distance between the two points is greater than or equal to the threshold or less than the threshold.
  • the trained model 121 includes a first trained model for recognizing the tip of the treatment instrument and tissue, and a second trained model for estimating the distance between two points.
  • the control unit 110 detects the jaw area, the area for each tissue type, and the clip area from the endoscopic image by image recognition processing using the first trained model.
  • FIG. 27 shows an example in which a jaw region, a membrane region, a pancreas region, and a liver region are detected from an endoscopic image.
  • the learning device 500 generates a first trained model using endoscopic images annotated with jaw regions, tissue type regions, and clip regions as teacher data.
  • the control unit 110 estimates the distance between the tip position of the jaw and the position closest to the tip position of the jaw within the attention target area by image recognition processing using the second trained model. Control unit 110 compares the estimated distance with a threshold.
  • the attention target is a tissue, organ, or instrument previously determined as a attention target among the tissues, organs, or instruments detected by the segmentation.
  • FIG. 27 shows an example in which the pancreas is set as a caution target.
  • the learning device 500 generates a second trained model using, as teacher data, an endoscopic image in which Jaw and the target of attention are captured and labeled with distance information indicating the distance between Jaw and the target of attention. .
  • FIG. 28 is an example of output adjustment when the control unit 110 recognizes the distance between the distal end of the treatment instrument and the attention target.
  • the control unit 110 weakens the energy output more than under normal conditions. For example, the controller 110 weakens the energy output from normal conditions when the recognized distance is equal to or less than the threshold. Control unit 110 does not change the energy output from the normal condition when the distance recognition result indicates a distance other than the above.
  • FIG. 35 shows an example of output adjustment when using a combined device.
  • the control unit 110 performs any of the output adjustments.
  • Display Example FIG. 29 shows a display example of information related to energy output adjustment.
  • the control unit 110 superimposes information about energy output adjustment on an endoscopic image to generate a display image 150, and performs processing for displaying the display image 150 on a monitor.
  • the display image 150 may be displayed on the display 230 of the endoscope system 200, or may be displayed on a display separately provided for navigation display.
  • the recognition result of the image recognition processing is, for example, a detected tissue region 151, a jaw region 152, or character information 153 indicating a tissue gripped by the jaws or an amount of tissue gripped.
  • a bounding box may be displayed indicating the position of the jaw.
  • the output information is, for example, an image 154 showing the selected output sequence.
  • the output information may be an icon representation 155 indicating the selected energy output setting. Icon display 155 includes, for example, a plurality of icons indicating a plurality of energy output settings, and highlighting 156 highlighting the icon of the determined energy output setting.
  • FIG. 30 is a flow chart of processing when image recognition results and device information are used together.
  • step S ⁇ b>21 an endoscope image is input to the control unit 110 from the main unit 220 of the endoscope system 200 and device information is input from the generator 300 that controls the energy device 310 .
  • the I/O device 190 may receive device information from the generator 300 and the received device information may be input to the control unit 110 .
  • step S22 the control unit 110 determines the visibility of the energy device 310 from the endoscopic image. For example, when the energy device 310 faces the depth direction of the image, when the jaw of the energy device 310 is hidden by another treatment tool, or when the amount of mist within the endoscope field of view exceeds a certain level, In some cases, it is determined that the visibility of the energy device 310 is poor, and in other cases, it is determined that the visibility of the energy device 310 is good.
  • step S23 the control unit 110 decides not to use the image recognition result but to use the device information. That is, when the visibility is poor, it is determined that the image recognition result is unreliable, and the use of the device information is decided.
  • the control unit 110 does not output an energy output adjustment instruction based on the image recognition result to the generator 300, and the generator 300 performs output control such as automatic output off based on impedance information.
  • control section 110 may output an energy output adjustment instruction to generator 300 based on the device information.
  • judging tissue information or treatment information based on image recognition results enables various or more accurate information judgments than judging tissue information or treatment information from device information.
  • step S24 the control unit 110 determines whether or not the estimated accuracy of image recognition using machine learning is equal to or greater than a first threshold.
  • the first threshold is set to 60%.
  • step S23 the control unit 110 determines to use the device information without using the image recognition result. That is, when the estimation accuracy is low, it is determined that the image recognition result is unreliable, and the use of the device information is decided. If it is determined in step S23 that the estimated accuracy is 60% or more, in step S25, the control unit 110 determines whether or not the estimated accuracy is greater than or equal to the second threshold.
  • the second threshold is a higher probability than the first threshold. Here, the second threshold is set to 90%.
  • step S26 the control unit 110 outputs an energy output adjustment instruction to the generator 300 based on the image recognition result. That is, when the estimation accuracy is sufficiently high, the image recognition result is trusted and used.
  • the generator 300 supplies energy to the energy device 310 at an output value or sequence set by the energy output adjustment instructions. At this time, the generator 300 may perform output control such as automatic output off based on impedance information under the output value or output sequence set by the energy output adjustment instruction. If it is determined in step S25 that the estimated accuracy is less than 90%, in step S27 the control unit 110 determines the consistency between the image recognition result and the device information.
  • step S27 If it is determined in step S27 that the image recognition result and the device information are consistent, the control unit 110 outputs an energy output adjustment instruction to the generator 300 based on the image recognition result in step S26. That is, even if the estimation accuracy of image recognition is not sufficiently high, if the image recognition result and the device information match, the image recognition result is trusted and used. If it is determined in step S27 that there is no consistency between the image recognition result and the device information, then in step S23 the control unit 110 decides to use the device information without using the image recognition result. That is, when the image recognition result and the device information do not match, it is determined that the image recognition result is unreliable, and the use of the device information is decided.
  • the device information is electrical information of the tissue with which the tip of the energy device is in contact, for example, impedance information of the tissue with which the tip of the energy device is in contact.
  • the electrical information is impedance information of tissue grasped by the two jaws.
  • Generator 300 outputs therapeutic RF power to the two jaws of a bipolar device, measures the voltage and current of the RF power, and obtains impedance information from the measured voltage and current.
  • the electrical information is not limited to impedance information, and may be information that changes according to the type of tissue or the progress of treatment.
  • the electrical information may be, for example, current, voltage, or phase between current and voltage.
  • the electrical information may be power, energy, impedance, resistance, reactance, admittance (reciprocal of impedance), conductance (real part of admittance), or susceptance (imaginary part of admittance).
  • the electrical information may be the change over time, change between parameters, differential integration between parameters (when P is a parameter, differential over time is dP/dt, differential by resistance is dP/ dR), a value derived by an elementary operation such as sum/diff for each chunk, or trigger information such as whether or not each threshold is crossed.
  • the estimation accuracy of image recognition is the degree of certainty of the estimation result.
  • the output layer has a node corresponding to each class, and the probability that the input data in the input layer corresponds to each class is output to each node in the output layer. be.
  • the class of the node for which the highest probability is output is output as the classification result, and the probability output to that node is used as the estimated accuracy of the classification result.
  • the accuracy is obtained in advance for each treatment scene, and the scene and accuracy are learned by a learning model together with tissue information or treatment information. Generate a finished model.
  • the treatment scene is, for example, a scene defined by the grasping direction of the energy device, a scene defined by the procedure scene, or the like.
  • a scene defined by the grasping direction is, for example, a scene in which the energy device grasps tissue while facing the depth direction of the endoscopic image.
  • the scene defined by the procedure scene is, for example, processing using an energy device under the pylorus.
  • the consistency of image recognition results and device information is whether or not an appropriate combination of image recognition information and device information is determined in advance, and whether or not the combination matches. Specifically, consistency means whether or not the tissue information or treatment information indicated by the image recognition result matches the tissue information or treatment information indicated by the device information.
  • 31 to 34 show examples of consistency between image recognition results and device information. For example, in FIG. 31, if the image recognition result is a thin film or thick blood vessel and the device information is low impedance, it is determined that the image recognition result and the device information match. In that case, the control unit 110 trusts the image recognition result and uses the image recognition result to adjust the energy output.
  • control unit 110 determines that the image recognition result is unreliable, and decides to use the device information.
  • the system 10 of the present embodiment described above includes a storage unit 120 that stores a trained model 121 and a control unit 110.
  • the trained model 121 is trained to output image recognition information from a learning device tissue image or a learning tissue image.
  • a learning device tissue image is an image obtained by capturing at least one energy device 310 that receives energy supply and outputs energy, and at least one living tissue.
  • a learning tissue image is an image obtained by capturing at least one living tissue.
  • the image recognition information is at least one of tissue information about at least one living tissue or treatment information about treatment for at least one living tissue.
  • the control unit 110 acquires a captured image, which is an image in which at least one energy device 310 and at least one living tissue are captured.
  • the control unit 110 estimates image recognition information from the captured image by processing based on the learned model 121 stored in the storage unit 120 .
  • Control unit 110 outputs an energy output adjustment instruction to generator 300 based on the estimated image recognition information.
  • Generator 300 controls the amount of energy supplied to energy device 310 based on the energy output adjustment instruction.
  • the energy output of the energy device 310 is adjusted based on the tissue information or treatment information image-recognized from the captured image. This makes it possible to adjust the energy output based on various information that cannot be determined only from device information such as impedance information. For example, as described above with reference to FIG. 31 and the like, tissue types that cannot be distinguished by impedance information can be determined by image recognition, and energy output can be adjusted according to the determined tissue types.
  • control unit 110 determines, based on the image recognition information, any adjustment to increase, decrease, or maintain the energy output from the reference energy output, and instructs the determined adjustment to be performed for the energy output adjustment. May be output as an instruction.
  • the energy output by increasing, decreasing, or maintaining the energy output based on the image recognition information, it is possible to increase, decrease, or maintain the energy output according to thermal diffusion expected from the image recognition information. For example, if the image recognition information predicts that the energy application time will be long, the energy output can be increased to shorten the energy application time and reduce thermal diffusion. "Adjustment for increasing, decreasing, or maintaining the energy output from the reference energy output" is described, for example, in "4. Example of processing when recognizing tissue type".
  • control unit 110 may output an energy output adjustment instruction using a preset energy output or a real-time energy output of the generator 300 as a reference energy output.
  • Preset energy output means that it is set in advance as a reference energy output for energy output adjustment, and that a fixed reference energy output is used regardless of real-time energy output.
  • “Real-time energy output” refers to the energy output set in generator 300 when control unit 110 outputs an energy output adjustment instruction. That is, the reference energy output can be different each time.
  • control unit 110 acquires an endoscopic image from the endoscope 210 as a captured image, and uses the energy output set at the time of acquisition of the endoscopic image as a reference energy output.
  • An output adjustment instruction may be output.
  • Energy output set at the time the endoscopic image is acquired means that the endoscopic image is acquired when the energy output adjustment instruction is output based on the information recognized from the endoscopic image. It is the energy output that was set at the time of
  • the energy device 310 is a device having two jaws capable of gripping tissue, and may be a device that receives energy supply from the generator 300 and outputs energy from the two jaws.
  • the energy device 310 may be a bipolar device 330.
  • Bipolar devices are described, for example, in FIG. 5 of “3. Energy Devices”.
  • the tissue information may include a tissue type or tissue state of tissue treated by at least one energy device.
  • the energy output of the energy device 310 is adjusted based on the tissue type or tissue state image-recognized from the captured image.
  • the degree of heat spread when treated by energy device 310 varies depending on the tissue type or tissue condition.
  • Using the image-recognized tissue type or tissue state enables energy output adjustments that account for heat diffusion in that tissue type or tissue state.
  • the tissue type is described, for example, in "4. Example of Processing When Recognizing the Tissue Type”.
  • the tissue state is described, for example, in "5. Example of processing when recognizing tissue state”.
  • the treatment information may include the amount of tissue grasped by at least one energy device, or the amount of tissue retracted by at least one energy device or other device.
  • the energy output of the energy device 310 is adjusted based on the amount of grasping or the amount of traction image-recognized from the captured image.
  • the degree of heat spread when treated by the energy device 310 varies depending on the amount of grip or traction.
  • the image-recognized gripping amount or pulling amount it is possible to adjust the energy output in consideration of thermal diffusion in the gripping amount or pulling amount.
  • the gripping amount is described, for example, in “6.
  • Example of processing when recognizing the tissue gripping amount”. Traction is described, for example, in "7. Example of Processing When Recognizing Tissue Tension”.
  • the treatment information may include the tension of the tissue treated by at least one energy device or the distance between the at least one energy device and the target of attention.
  • the energy output of the energy device 310 is adjusted based on the tissue tension or the distance between the energy device and the target of attention image-recognized from the captured image.
  • the degree of heat diffusion when treated by the energy device 310 varies depending on the tissue tension or the distance between the energy device and the target of attention.
  • Using the image-recognized distance between the tissue tension or energy device and the target of attention enables energy output adjustment that takes into account thermal diffusion in the distance between the tissue tension or energy device and the target of attention.
  • the tissue tension is described, for example, in "7.
  • the distance between the energy device and the attention target is described, for example, in “8. Example of processing when recognizing the distance between the distal end of the treatment instrument and the attention target”.
  • control unit 110 controls the use of the image recognition information and the electrical information obtained from the at least one energy device 310 in controlling the energy output based on the estimation accuracy when estimating the image recognition information. You can change the priority.
  • priority is given to performing energy output adjustment based on image recognition information and performing energy output control based on electrical information without performing energy output adjustment based on image recognition information. degree is changed according to the estimated accuracy. Accordingly, it is possible to control which of the above is given priority depending on whether the image recognition information is reliable.
  • the “control of energy output” does not necessarily have to be performed by the control unit 110 .
  • the control unit 110 outputs an energy output adjustment instruction based on the image recognition information. You can control the output. In the latter case, control unit 110 gives priority to the use of electrical information by deciding not to output an energy output adjustment instruction based on image recognition information. Note that the change in use priority is described, for example, in "10. Energy Output Adjustment Using Both Image Recognition Results and Device Information".
  • control unit 110 may acquire electrical information from at least one energy device 310 .
  • the control unit 110 may change the use priority of the image recognition information and the electrical information in controlling the energy output based on the consistency of the image recognition information and the electrical information.
  • control unit 110 performs processing for displaying the captured image and at least one of the content of the image recognition information and the content of the energy output adjustment instruction on the display unit.
  • the user can see at least one of the content of the image recognition information and the content of the energy output adjustment instruction displayed on the display unit, and the energy output automatically controlled in the device is processed inside the device. You can know the contents.
  • the display unit on which information is displayed may be either the display 230 of the endoscope system 200 or a display provided elsewhere. The display is described, for example, in "9. Display Example”.
  • the trained model 121 may include a first trained model and a second trained model.
  • a first trained model is trained to detect a bounding box indicative of the tip of at least one energy device from the training device tissue image.
  • a second trained model is trained to output image recognition information from the training device tissue image within the bounding box.
  • the control unit 110 detects a bounding box from the captured image by processing based on the first trained model, and estimates image recognition information from the captured image within the bounding box by processing based on the second trained model.
  • tissue information or treatment information can be recognized from captured images by combining detection using machine learning and classification or regression. 10 of "4. Example of processing for recognizing tissue type", FIG. 14 of “5. Example of processing for recognizing tissue state", and “6. 19 of “Example of processing when recognizing tissue tension” or FIG. 24 of “7. Example of processing when recognizing tissue tension”.
  • the trained model 121 detects a region of each biological tissue of at least one biological tissue from the learning device tissue image or the learning tissue image, and detects at least one energy from the learning device tissue image. It may be a model trained to detect the tip region of the device. By processing based on the learned model 121, the control unit 110 detects the region of each biological tissue and the tip region from the captured image, and estimates image recognition information based on the detected region of each biological tissue and the tip region.
  • tissue information or treatment information can be image-recognized from captured images by segmentation using machine learning. This process is described in FIG. 9 of "4. Example of processing when recognizing tissue type” or FIGS. 13 to 15 of “5. Example of processing when recognizing tissue state”.
  • the system 10 may include at least one energy device 310 and a generator 300 .
  • the system 10 may include an endoscope 210 that captures an endoscopic image as the captured image.
  • the control unit 110 may acquire an endoscopic image from the endoscope 210 and estimate image recognition information from the endoscopic image by processing based on the learned model 121 .
  • the above processing may be described as a program. That is, the program of the present embodiment acquires a captured image, estimates image recognition information from the captured image by processing based on the learned model 121, and generates an energy output adjustment instruction based on the estimated image recognition information. outputting to 300; and
  • the above processing may be executed as an energy output adjustment method. That is, the energy output adjustment method of this embodiment includes obtaining a captured image, estimating image recognition information from the captured image by processing based on the learned model 121, and adjusting energy output based on the estimated image recognition information. and outputting the instructions to the generator 300 .

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Otolaryngology (AREA)
  • Pathology (AREA)
  • Plasma & Fusion (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Robotics (AREA)
  • Urology & Nephrology (AREA)
  • Human Computer Interaction (AREA)
  • Surgical Instruments (AREA)
  • Endoscopes (AREA)

Abstract

システム(10)は、学習済みモデル(121)を記憶する記憶部(120)と、制御部(110)と、を含む。制御部は、少なくとも1つのエネルギーデバイス(310)及び少なくとも1つの生体組織が撮像された画像である撮像画像を取得する。制御部は、記憶部に記憶された学習済みモデルに基づく処理により、撮像画像から画像認識情報を推定する。制御部は、推定した画像認識情報に基づくエネルギー出力調整指示をジェネレータ(300)に対して出力する。ジェネレータは、エネルギーデバイスへのエネルギー供給量をエネルギー出力調整指示に基づいて制御する。

Description

システム、プログラム及びエネルギー出力調整方法
 本発明は、 システム、プログラム及びエネルギー出力調整方法等に関する。
 特許文献1には、エネルギーデバイスのエネルギー出力データと、組織位置、患者状態又は光学組織センサ情報とに基づいて、エネルギーデバイスが把持している組織のタイプを決定する手術システムが開示されている。例えば、血管であるか非血管であるか、又は神経の有無等が、組織のタイプとして認識される。この手術システムは、認識したタイプに対する処置内容が不適切である場合に、エネルギー出力を停止すると共にユーザに警告する。
米国特許出願公開第2017/0252095号明細書
 特許文献1では、処置される組織又はその周辺への熱拡散の度合い又は熱拡散の防止が考慮されていないため、エネルギーデバイスによる処置時の組織又はデバイス状態等に応じて適切にエネルギー出力を調整することができないという課題がある。例えば、処置される組織の厚み、又は体液等の浸漬による濡れ等の影響により、熱拡散の度合いは変化する。或いは、エネルギーデバイスによる組織の把持量又は牽引の強さ等の各種操作量によって、熱拡散の度合いは変化する。特許文献1では、これらの変化に対応して適切にエネルギー出力を調整することができない。また、光学組織センサ等の各種センサを設けるのは、滅菌性の観点から好ましくない。
 本開示の一態様は、エネルギー供給を受けてエネルギー出力を行う少なくとも1つのエネルギーデバイス及び少なくとも1つの生体組織が撮像された画像である学習用デバイス組織画像、又は前記少なくとも1つの生体組織が撮像された画像である学習用組織画像から、前記少なくとも1つの生体組織に関する組織情報、又は前記少なくとも1つの生体組織に対する処置に関する処置情報の少なくとも1つである画像認識情報を出力するように学習した学習済みモデルを記憶する記憶部と、制御部と、を含み、前記制御部は、前記少なくとも1つのエネルギーデバイス及び前記少なくとも1つの生体組織が撮像された画像である撮像画像を取得し、前記記憶部に記憶された前記学習済みモデルに基づく処理により、前記撮像画像から前記画像認識情報を推定し、推定した前記画像認識情報に基づくエネルギー出力調整指示を、エネルギーデバイスへのエネルギー供給量を前記エネルギー出力調整指示に基づいて制御するジェネレータに対して、出力するシステムに関係する。
 また本開示の他の態様は、エネルギー供給を受けてエネルギー出力を行う少なくとも1つのエネルギーデバイス及び少なくとも1つの生体組織が撮像された画像である撮像画像を取得することと、前記少なくとも1つのエネルギーデバイス及び前記少なくとも1つの生体組織が撮像された画像である学習用デバイス組織画像、又は前記少なくとも1つの生体組織が撮像された画像である学習用組織画像から、前記少なくとも1つの生体組織に関する組織情報、又は前記少なくとも1つの生体組織に対する処置に関する処置情報の少なくとも1つである画像認識情報を出力するように学習した学習済みモデルに基づく処理により、前記撮像画像から前記画像認識情報を推定することと、推定した前記画像認識情報に基づくエネルギー出力調整指示を、エネルギーデバイスへのエネルギー供給量を前記エネルギー出力調整指示に基づいて制御するジェネレータに対して、出力することと、をコンピュータに実行させるプログラムに関係する。
 また本開示の更に他の態様は、エネルギー供給を受けてエネルギー出力を行う少なくとも1つのエネルギーデバイス及び少なくとも1つの生体組織が撮像された画像である撮像画像を取得することと、前記少なくとも1つのエネルギーデバイス及び前記少なくとも1つの生体組織が撮像された画像である学習用デバイス組織画像、又は前記少なくとも1つの生体組織が撮像された画像である学習用組織画像から、前記少なくとも1つの生体組織に関する組織情報、又は前記少なくとも1つの生体組織に対する処置に関する処置情報の少なくとも1つである画像認識情報を出力するように学習した学習済みモデルに基づく処理により、前記撮像画像から前記画像認識情報を推定することと、推定した前記画像認識情報に基づくエネルギー出力調整指示を、エネルギーデバイスへのエネルギー供給量を前記エネルギー出力調整指示に基づいて制御するジェネレータに対して、出力することと、を含むエネルギー出力調整方法に関係する。
システムの構成例。 コントローラの構成例。 コントローラ及びシステムが行う処理を説明するフローチャート。 モノポーラデバイスの構成例。 バイポーラデバイスの構成例。 超音波デバイスの構成例。 制御部が組織種類を認識する場合の処理例。 学習装置の構成例。 制御部が組織種類を認識する場合の第1認識処理例。 制御部が組織種類を認識する場合の第2認識処理例。 制御部が組織種類を認識する場合の出力調整例。 制御部が組織状態を認識する場合の処理例。 制御部が組織状態を認識する場合の第1認識処理例。 制御部が組織状態を認識する場合の第1認識処理例。 制御部が組織状態を認識する場合の第1認識処理例。 制御部が組織状態を認識する場合の第2認識処理例。 制御部が組織状態を認識する場合の出力調整例。 制御部が組織把持量を認識する場合の処理例。 制御部が組織把持量を認識する場合の第1認識処理例。 制御部が組織把持量を認識する場合の第2認識処理例。 制御部が組織把持量を認識する場合の出力調整例。 制御部が組織テンションを認識する場合の処理例。 制御部が組織テンションを認識する場合の第1認識処理例。 制御部が組織テンションを認識する場合の第2認識処理例。 制御部が組織テンションを認識する場合の出力調整例。 制御部が処置具先端部と注意対象の距離を認識する場合の処理例。 制御部が処置具先端部と注意対象の距離を認識する場合の第1認識処理例。 制御部が処置具先端部と注意対象の距離を認識する場合の出力調整例。 エネルギー出力調整に関する情報の表示例。 画像認識結果とデバイス情報を併用する場合の処理のフローチャート。 併用デバイスを用いる場合の出力調整例。 併用デバイスを用いる場合の出力調整例。 併用デバイスを用いる場合の出力調整例。 併用デバイスを用いる場合の出力調整例。 併用デバイスを用いる場合の出力調整例。
 以下、本実施形態について説明する。なお、以下に説明する本実施形態は、請求の範囲に記載された内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本開示の必須構成要件であるとは限らない。
 1.システム
 図1は、本実施形態におけるシステム10の構成例である。図1には、内視鏡により術野を撮影する場合のシステム構成例を示す。図1に示すシステム10は、コントローラ100と内視鏡システム200とジェネレータ300とエネルギーデバイス310とを含む。システム10は、内視鏡下において少なくとも1つのエネルギーデバイスを用いて手術を行うための手術システムである。ここではシステム10が1つのエネルギーデバイス310を含む例を示すが、システム10が複数のエネルギーデバイスを含んでもよい。
 内視鏡システム200は、内視鏡による撮影、内視鏡画像の画像処理、及び内視鏡画像のモニタ表示を行うシステムである。内視鏡システム200は、内視鏡210と本体装置220とディスプレイ230とを含む。ここでは、外科手術用の硬性鏡を例に説明する。
 内視鏡210は、体腔に挿入される挿入部と、挿入部の基端に接続される操作部と、操作部の基端に接続されるユニバーサルコードと、ユニバーサルコードの基端に接続されるコネクタ部とを含む。挿入部は、硬性管と対物光学系と撮像素子と照明光学系と伝送ケーブルとライトガイドとを含む。体腔内を撮影するための対物光学系及び撮像素子と、体腔内を照明するための照明光学系は、細長い円筒形状の硬性管の先端部に設けられる。硬性管の先端部は、湾曲可能に構成されてもよい。撮像素子により取得された画像信号を伝送する伝送ケーブル、及び照明光を照明光学系へ導光するライトガイドは、硬性管の内部に設けられる。操作部は、ユーザにより把持され、ユーザからの操作を受け付ける。操作部には、様々な機能が割り当てられたボタンが設けられる。挿入部先端が湾曲可能である場合には、操作部に、アングル操作レバーが設けられる。コネクタ部は、伝送ケーブルを本体装置220に着脱可能に接続するビデオコネクタと、ライトガイドを本体装置220に着脱可能に接続するライトガイドコネクタとを含む。
 本体装置220は、内視鏡の制御、内視鏡画像の画像処理及び内視鏡画像の表示処理を行う処理装置と、照明光の生成及び照明光の制御を行う光源装置とを含む。本体装置220はビデオシステムセンターとも呼ばれる。処理装置は、CPU等のプロセッサにより構成され、内視鏡210から送信される画像信号を画像処理して内視鏡画像を生成し、その内視鏡画像をディスプレイ230とコントローラ100に出力する。光源装置が出射した照明光は、ライトガイドにより照明光学系へ導光され、照明光学系から体腔内へ出射される。
 エネルギーデバイス310は、その先端部から高周波電力又は超音波等によりエネルギーを出力することで、その先端部が接する組織に対して凝固、封止、止血、切開、切離又は剥離等の処置を行うデバイスである。エネルギーデバイス310は、エネルギー処置具とも呼ばれる。エネルギーデバイス310は、デバイス先端の電極と体外の電極の間に高周波電力を通電させるモノポーラデバイス、2つのジョウの間に高周波電力を通電させるバイポーラデバイス、プローブとジョウが設けられると共にプローブから超音波を出射する超音波デバイス、又はプローブとジョウの間に高周波電力を通電させると共にプローブから超音波を出射する併用デバイス等である。
 ジェネレータ300は、エネルギーデバイス310へのエネルギー供給、エネルギー供給の制御、及びエネルギーデバイス310からの電気的情報の取得を行う。エネルギーデバイス310が高周波エネルギーを出力する場合、ジェネレータ300は高周波電力を供給し、エネルギーデバイス310は、その高周波電力を電極又はジョウから出力する。エネルギーデバイス310が超音波エネルギーを出力する場合、ジェネレータ300は電力を供給し、エネルギーデバイス310のプローブは、その電力を超音波に変換して出力する。
 電気的情報は、エネルギーデバイス310の電極又はジョウが接する組織の電気的情報であり、具体的には、エネルギーデバイス310が組織に高周波電力を出力した応答として得られる情報である。電気的情報は、例えば、エネルギーデバイス310により処置される組織のインピーダンス情報である。但し、後述のように電気的情報はインピーダンス情報に限らない。
 ジェネレータ300は、出力シーケンスに従って、エネルギーデバイス310からのエネルギー出力を時間的に変化させる制御を行う。ジェネレータ300は、インピーダンス情報の時間的変化に応じてエネルギー出力を変化させてもよい。この場合、出力シーケンスは、インピーダンス情報の変化に対してどのようにエネルギー出力を変化させるかを、規定してもよい。また、ジェネレータ300は、インピーダンス情報の時間的変化に応じてエネルギー出力を自動オフしてもよい。例えば、ジェネレータ300は、インピーダンスが一定以上に上昇したとき、処置終了と判断してエネルギー出力をオフしてもよい。
 コントローラ100は、機械学習等を用いた画像認識処理により内視鏡画像から組織情報、処置情報又はそれら両方を認識し、その認識した情報に基づいてエネルギー出力調整指示をジェネレータに出力する。内視鏡画像から認識される組織情報、処置情報又はそれら両方を画像認識情報とも呼ぶこととする。これらの情報は、具体的には、エネルギーデバイス310による処置において熱拡散の度合いに影響を与える事項に関する情報である。
 より具体的には、組織情報は、エネルギーデバイス310により処置される組織に関する情報であり、例えば組織種類又は組織状態を含む。処置情報は、組織に対する処置に関する情報であり、具体的には、処置に用いられるデバイスが組織に及ぼす作用、その作用の結果、又は、デバイスと組織の位置関係等の情報である。ここでのデバイスは、エネルギーデバイス310又はそれ以外のデバイスであってよい。処置情報は、例えば、組織把持量、牽引量、組織テンション、又はエネルギーデバイス310の先端部と周辺組織との距離等を含む。
 ジェネレータ300は、エネルギー出力調整指示に従って、エネルギーデバイス310のエネルギー出力を調整する。即ち、本実施形態のシステム10は、内視鏡画像に基づいてエネルギーデバイス310からのエネルギー出力を自動調整するシステムである。ジェネレータ300は、エネルギー出力調整指示により指示されるエネルギー供給量でエネルギーデバイス310にエネルギーを供給し、エネルギーデバイス310が、そのエネルギー供給を受けてエネルギー出力することで、エネルギー出力がエネルギー出力調整指示により調整される。
 エネルギー出力調整指示は、出力シーケンスの波形全体としての出力を増減する指示、或いは、選択可能な複数の出力シーケンスのうち、いずれかの出力シーケンスに設定する指示等である。例えば、エネルギーデバイス310からのエネルギー出力が段階的な倍率により調整可能であるとき、エネルギー出力調整指示は、そのエネルギー出力の段階的な倍率を示す指示である。ジェネレータ300は、その指示された倍率に応じて高周波出力又は超音波出力を増減させる。出力シーケンスの開始前にエネルギー出力調整指示が行われる場合、出力シーケンスの波形全体に倍率が乗算され、出力シーケンス全体として出力が増加又は減少する。なお、倍率は連続的に調整可能であってもよい。或いは、複数の出力シーケンスが設けられているとき、エネルギー出力調整指示は、その複数の出力シーケンスのいずれかを示す指示である。ジェネレータ300は、その指示された出力シーケンスに従ってエネルギーデバイス310からのエネルギー出力を行う。なお、エネルギー出力調整指示は、エネルギー出力の増減と出力シーケンスの変更の両方の指示を含んでもよい。
 ここで、一般的に外科手術においてエネルギー処置を行う際のポイントとして、エネルギーデバイスからの熱拡散を抑制して周囲臓器の熱損傷を避けることが挙げられる。しかし、処置される組織は一様ではないため、組織種類の違い、組織状態の違い又は患者の個人差等により、切離等の処置に要する時間にバラつきが生じ、熱拡散の程度も様々となる。これらに対処し、熱拡散を抑制すべく、医師は組織把持量や組織テンションの調整を行っているが、経験が必要な操作であり、特に非エキスパートにおいては適切な調整が困難な場合がある。
 このように、エネルギーデバイスを用いた処置においては、しばしば周囲への熱拡散が問題となるため、医師が拡散の程度を推測しながら処置を行う。上記特許文献1では、エネルギーデバイスのエネルギー出力データ等に基づいて血管であるか非血管であるか等の組織タイプを認識している。しかし、熱拡散の程度は、血管であるか非血管であるかのみで二分されるものではなく、例えば、組織の厚み、血液等への浸漬等の組織状態、又は、デバイスによる把持量又は牽引の強さ等の医師の操作にも影響される。具体的には、エネルギーデバイスがエネルギーを印加したことで生じた組織の熱が、周囲組織の内部又は表面を拡散することで、熱拡散が生じる。或いは、エネルギーデバイスが出力するエネルギーが把持組織の周囲にも拡散し、そのエネルギーが拡散した周囲組織が発熱することで、熱拡散が生じる。この熱拡散の程度は、組織種類、組織状態、組織把持量、又は組織テンション等に応じて異なる。
 この点、本実施形態によれば、システム10が、組織種類、組織状態、組織把持量、又は組織テンション等の画像認識情報に基づいて、組織に適したエネルギーを印加する。これにより、エネルギーデバイスの処置対象から周囲組織への熱拡散を低減できる。また、従来医師が行っていた把持量やテンションの調整に代わりシステム10がエネルギーの出力調整を行うことで、医師の負担を軽減できる。また、システム10が自律的に出力調整を行うことで、経験の浅い医師においても安定した処置が可能となる。以上により、手術の安定性向上が図れる、或いは医師の経験値に依らない手技の均てん化が図れる。
 2.コントローラ
 図2は、コントローラ100の構成例である。コントローラ100は、制御部110と記憶部120とI/Oデバイス180とI/Oデバイス190とを含む。図1と図2には、コントローラ100がジェネレータ300と別体の装置で構成される例を示す。その場合、コントローラ100は、PC又はサーバ装置等の情報処理装置により構成される。或いは、コントローラ100は、ネットワークを介して接続された1又は複数の情報処理装置によって処理を実行するクラウドシステムで実現されてもよい。
 I/Oデバイス180は、内視鏡システム200の本体装置220から内視鏡画像の画像データを受信する。I/Oデバイス180は、画像伝送用のケーブルが接続されるコネクタ、又は、そのコネクタに接続され、本体装置220との通信を行うインターフェース回路である。
 制御部110は、学習済みモデル121を用いた画像認識処理により内視鏡画像から組織情報又は処置情報の少なくとも1つを認識し、その画像認識情報に基づいてエネルギー出力調整指示を出力する。制御部110は、ハードウェアとして1又は複数のプロセッサを含む。プロセッサは、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)又はDSP(Digital Signal Processor)等の汎用プロセッサである。或いは、プロセッサは、ASIC(Application Specific Integrated Circuit)又はFPGA(Field Programmable Gate Array)等の専用プロセッサであってもよい。
 記憶部120は、画像認識処理に用いられる学習済みモデル121を記憶する。汎用プロセッサにより画像認識処理が行われる場合には、記憶部120は、推論アルゴリズムが記述されたプログラムと、その推論アルゴリズムに用いられるパラメータと、を学習済みモデル121として記憶する。推論アルゴリズムがハードウェア化された専用プロセッサにより画像認識処理が行われる場合には、記憶部120は、推論アルゴリズムに用いられるパラメータを学習済みモデル121として記憶する。記憶部120は、半導体メモリ、ハードディスクドライブ、又は光学ディスクドライブ等の記憶装置である。半導体メモリは、RAM、ROM又は不揮発性メモリ等である。
 画像認識処理の推論アルゴリズムとしては、例えばニューラルネットワークを採用できる。ニューラルネットワークにおけるノード間接続の重み係数とバイアスがパラメータである。ニューラルネットワークは、画像データが入力される入力層と、入力層を通じて入力されたデータに対し演算処理を行う中間層と、中間層から出力される演算結果に基づいて認識結果を出力する出力層と、を含む。画像認識処理に用いられるニューラルネットワークとして、例えばCNN(Convolutional Neural Network)を採用できる。
 また制御部110は、画像取得部111と組織情報認識部112と出力設定部113とを含む。記憶部120は、画像取得部111、組織情報認識部112及び出力設定部113の各部の機能が記述されたプログラムを記憶する。制御部の1又は複数のプロセッサが、記憶部120からプログラムを読み出し、そのプログラムを実行することで、画像取得部111、組織情報認識部112及び出力設定部113の各部の機能を実現する。この各部の機能が記述されたプログラムは、コンピュータにより読み取り可能な媒体である非一時的な情報記憶媒体に格納できる。情報記憶媒体は、例えば光ディスク、メモリカード、HDD、或いは半導体メモリなどにより実現できる。半導体メモリは例えばROM又は不揮発性メモリである。
 I/Oデバイス190は、ジェネレータ300へエネルギー出力調整指示の信号を送信する。I/Oデバイス190は、信号伝送用のケーブルが接続されるコネクタ、又は、そのコネクタに接続され、ジェネレータ300との通信を行うインターフェース回路である。
 図3は、コントローラ100及びシステム10が行う処理を説明するフローチャートである。
 ステップS1において、画像取得部111が、内視鏡システム200の本体装置220からI/Oデバイス180を介して内視鏡画像を取得する。ステップS2において、組織情報認識部112は、学習済みモデル121を用いた画像認識処理を内視鏡画像に対して行うことで、組織情報又は処置情報の少なくとも1つを画像認識情報として取得する。ステップS3において、出力設定部113は、画像認識情報に応じたエネルギー出力調整指示を、I/Oデバイス190を介してジェネレータ300へ出力する。
 ステップS4において、ジェネレータ300は、エネルギー出力調整指示を受けてエネルギー出力シーケンスを設定し、医師が行う出力操作に応じてエネルギー出力を行う。例えば、医師は、エネルギーデバイス310の操作部に設けられた出力開始ボタンを操作し、ジェネレータ300は、その操作入力を受けてエネルギーデバイス310へのエネルギー供給を開始する。ステップS5において、エネルギーデバイス310は、ジェネレータ300からのエネルギー供給を受けて、把持している組織へエネルギーを印加する。
 なお、上記ではコントローラ100とジェネレータ300が別体の装置で構成され、コントローラ100を構成する装置に制御部110全体が含まれるとしたが、コントローラ100とジェネレータ300のハードウェア構成はこれに限定されない。例えば、コントローラ100とジェネレータ300は一体の装置で構成されてもよい。或いは、システム10が第1装置と第2装置とを含み、第1装置が、制御部110のうちの画像取得部111と組織情報認識部112を含み、第2装置が、制御部110のうちの出力設定部113とジェネレータ300とを含んでもよい。この場合、第1装置は、組織情報又は処置情報の少なくとも1つである画像認識情報を第2装置へ出力し、第2装置は、画像認識情報に応じてジェネレータのエネルギー出力を制御する。
 3.エネルギーデバイス
 以下、エネルギーデバイス310の一例として、モノポーラデバイス320、バイポーラデバイス330、超音波デバイス340及び併用デバイスについて説明する。
 図4は、モノポーラデバイス320の構成例である。モノポーラデバイス320は、細長い円筒形状の挿入部322と、挿入部322の先端に設けられる電極321と、挿入部322の基端に接続される操作部323と、操作部323と不図示のコネクタとを接続するケーブル325とを含む。コネクタはジェネレータ300に着脱可能に接続される。
 ジェネレータ300が出力した高周波電力はケーブル325により伝送され、電極321から出力される。患者の体外に対極板が設けられており、電極321と対極板の間で通電する。これにより、電極321が接する組織に高周波エネルギーが印加され、その組織にジュール熱が発生する。電極321は、処置の内容に応じて様々な形状の電極が採用される。モノポーラデバイス320は、通電パターンの変更により、凝固と切開の程度を調整可能である。モノポーラデバイス320の処置対象は、電極321が接する組織であるが、その電極321が接する組織の周囲に拡散した熱によって周囲組織に影響を与える可能性がある。
 図5は、バイポーラデバイス330の構成例である。バイポーラデバイス330は、細長い円筒形状の挿入部332と、挿入部332の先端部331に設けられる2つのジョウ337、338と、挿入部332の基端に接続される操作部333と、操作部333と不図示のコネクタとを接続するケーブル335とを含む。コネクタはジェネレータ300に着脱可能に接続される。ジョウ337、338は、組織を把持すると共に把持された組織にエネルギーを印加するための可動部のことであり、基端336に設けられた軸を中心として開閉可能に構成されている。操作部333は、ジョウ337、338の開閉を操作するための把持部が設けられている。医師が把持部を握り込むことで、ジョウ337、338が閉まり組織を把持する。
 ジェネレータ300が出力した高周波電力はケーブル335により伝送され、ジョウ337、338が組織を把持したとき2つのジョウ337、338の間に通電する。これにより、2つのジョウ337、338に挟まれた組織に高周波エネルギーが印加され、その組織にジュール熱が発生し、その組織が凝固する。ジェネレータ300は、ジョウ337、338に把持された組織のインピーダンス情報を計測し、そのインピーダンス情報に基づいて処置完了を検知し、エネルギー出力を自動停止してもよい。また、ジェネレータ300は、インピーダンス情報に基づいて、組織への印加エネルギーを自動調整してもよい。バイポーラデバイスの熱拡散に関しては、例えば、バイポーラデバイス330のデバイス温度は摂氏100度程度までしか上がらないが、ジョウ337、338により把持された部分の周辺に回り込み電流が生じ、その回り込み電流により熱拡散が生じる可能性がある。
 なお、バイポーラデバイスの派生デバイスとしてベッセルシーリングデバイスがある。ベッセルシーリングデバイスは、バイポーラデバイスのジョウにカッターが設けられたデバイスであり、通電により組織を凝固した後にカッターを走らせることで組織を切離する。
 図6は、超音波デバイス340の構成例である。超音波デバイス340は、細長い円筒形状の挿入部342と、挿入部342の先端部341に設けられるジョウ347及びプローブ348と、挿入部342の基端に接続される操作部343と、操作部343と不図示のコネクタとを接続するケーブル345とを含む。コネクタはジェネレータ300に着脱可能に接続される。ジョウ347は、基端346に設けられた軸を中心として可動であり、非可動のプローブ348に対して開閉可能に構成されている。操作部343は、ジョウ347の開閉を操作するための把持部が設けられている。医師が把持部を握り込むことで、ジョウ347が閉まり、ジョウ347とプローブ348が組織を把持する。操作部343には、第1出力モードが割り当てられた操作ボタン344aと、第2出力モードが割り当てられた操作ボタン344bとが設けられる。出力モードは処置内容に応じて選択されるものであり、各出力モードの操作ボタンが押されると、そのモードの出力シーケンスで超音波エネルギーが出力される。
 ジェネレータ300が出力した電力はケーブル335により伝送され、操作ボタン344a又は344bが押されたときにプローブ348が電力を超音波に変換して出力する。これにより、ジョウ347とプローブ348に挟まれた組織に摩擦熱が発生し、その組織が凝固する又は組織が切開される。高周波デバイスの熱拡散に関しては、例えば、高周波デバイスの熱拡散に比べて、超音波デバイス340の熱拡散は少ないが、超音波デバイス340のデバイス温度は摂氏200度近くまで上昇する。超音波デバイス340の熱拡散は、プローブ348の先端方向に生じやすいという特性がある。
 高周波電力と超音波を併用する併用デバイスは、例えば図6の超音波デバイスと同様の構成である。但し、併用デバイスは、ジョウとプローブの間に高周波電力を通電することで、ジョウとプローブに把持された組織にジュール熱を発生させ、その組織を凝固させることができる。また併用デバイスは、超音波デバイスと同様に、プローブから超音波を出力することで、ジョウとプローブに把持された組織を切開できる。操作部に設けられた2つの操作ボタンの一方には、高周波モードが割り当てられ、他方にはシール&カットモードが割り当てられる。高周波モードは、高周波エネルギー出力のみで凝固等の処置を行うモードである。シール&カットモードは、高周波エネルギーと超音波エネルギーを併用するモードであり、高周波エネルギー出力により組織を凝固させると共に組織を切離するモードである。併用デバイスの熱拡散に関しては、例えば、バイポーラデバイスと同様な熱拡散、超音波デバイスと同様な熱拡散、又はそれら両方が生じる可能性がある。
 なお、以下の実施形態においては、主にバイポーラデバイス330をエネルギーデバイス310として用いる場合を例に説明する。但し、本実施形態は、熱拡散が生じる可能性がある上記の様々なエネルギーデバイスを用いる場合に適用可能である。
 4.組織種類を認識する場合の処理例
 図7は、制御部110が組織種類を認識する場合の処理例である。S1Aに示すように、制御部110に内視鏡画像が入力される。具体的には、内視鏡により撮影された動画像の各フレーム画像が順次に制御部110に入力される。制御部110に入力される内視鏡画像には、1又は複数の組織及び1又は複数のエネルギーデバイスが写っている。
 S2Aaに示すように、制御部110は、機械学習によって調整された組織認識プログラムを実行することで、内視鏡画像から組織種類を認識する。具体的には、制御部110は、バイポーラデバイスのジョウに把持された組織の種類、或いは、その把持された組織の周辺組織の種類を認識する。組織種類とは、臓器内外に存在する組織の種類、或いは、臓器そのものの種類のことである。臓器内外に存在する組織は、例えば、動脈、静脈、血管を含む膜、肝胃間膜、腸間膜、薄膜、神経又は脂肪等である。臓器は、例えば、食道、胃、膵臓、肝臓又は小腸等である。S2Abに示すように、制御部110は、内視鏡画像から認識した組織種類を出力する。図7には、血管を含む膜が認識された例を示す。
 S3Aに示すように、制御部110は、内視鏡画像から認識された組織種類に応じて出力変更指示を行う。具体的には、記憶部120が、各組織種類にエネルギー出力調整指示が対応付けられたテーブルデータを記憶し、制御部110は、そのテーブルデータを参照することで、組織種類に対応したエネルギー出力調整指示を出力する。ジェネレータ300は、制御部110が出力したエネルギー出力調整指示に従ってバイポーラデバイスの出力シーケンスを調整する。なお、組織種類に応じたエネルギー出力調整指示を出力するアルゴリズムは、上記に限定されない。
 エネルギー出力調整指示は、基準エネルギー出力を基準として、エネルギー出力を増加させる、減少させる又は維持する指示である。ジェネレータ300は、エネルギー出力の設定操作を受け付ける操作部を有しており、その操作部によりエネルギー出力を例えば強度1~5の5段階のいずれかに設定可能である。強度1が最低のエネルギー出力、強度5が最高のエネルギー出力を示す。このとき、基準エネルギー出力は、例えば、予め決められた「強度3」等のエネルギー出力である。その場合、基準エネルギー出力よりも増加させる指示は、「強度4」又は「強度5」に設定する指示であり、基準エネルギー出力よりも減少させる指示は、「強度2」又は「強度1」に設定する指示である。或いは、基準エネルギー出力は、ジェネレータ300の操作部により設定されている現在のエネルギー出力であってもよい。その場合、基準エネルギー出力よりも増加させる指示は、現在設定されているエネルギー出力よりも高いエネルギー出力に設定する指示であり、基準エネルギー出力よりも減少させる指示は、現在設定されているエネルギー出力よりも低いエネルギー出力に設定する指示である。或いは、基準エネルギー出力は、ジェネレータ300に設定可能な強度1~5の出力範囲であってもよい。その場合、基準エネルギー出力よりも増加させる指示は、「強度5」よりも高いエネルギー出力に設定する指示であり、基準エネルギー出力よりも減少させる指示は、「強度1」よりも低いエネルギー出力に設定する指示である。
 図8は、組織認識処理の機械学習を行う学習装置500の構成例である。学習装置500は、処理部510と記憶部520とを含む。学習装置500は、例えばPC又はサーバ装置等の情報処理装置によって実現される。或いは、学習装置500は、ネットワークを介して接続された1又は複数の情報処理装置によって処理を実行するクラウドシステムで実現されてもよい。
 処理部510はCPU等のプロセッサであり、記憶部520は半導体メモリ又はハードディスクドライブ等の記憶装置である。記憶部520は学習モデル522と教師データ521とを記憶しており、処理部510が教師データ521を用いて学習モデル522を学習させることで、学習済みモデル121を生成する。具体的には、教師データは、複数の学習用画像の画像データと、各学習用画像に付された正解データとを含む。複数の学習用画像は、1又は複数の組織及び1又は複数のエネルギーデバイスが写る内視鏡画像を含む。この内視鏡画像を学習用デバイス組織画像とも呼ぶ。また複数の学習用画像は、1又は複数の組織が写り、且つエネルギーデバイスが写らない内視鏡画像を含んでもよい。この内視鏡画像を学習用組織画像とも呼ぶ。正解データは、セグメンテーション(領域検出)におけるアノテーション、ディテクション(位置検出)におけるアノテーション、クラシフィケーション(分類)における正解ラベル、又はリグレッション(回帰分析)における正解ラベルである。処理部510は、学習モデル522による推論処理に学習用画像を入力し、その推論処理の結果と正解データの誤差に基づいて学習モデル522にフィードバックを行い、それを多数の教師データで繰り返すことで、学習済みモデル121を生成する。生成された学習済みモデル121は、コントローラ100の記憶部120に転送される。
 制御部110が組織種類を認識する場合、教師データ521は、学習用画像として、血管を含む膜の画像、肝胃間膜の画像、血管(動脈)の画像、実質臓器(膵臓)の画像、腸間膜の画像、薄膜の画像、実質臓器(肝臓)の画像、又は実質臓器(食道)の画像等を含む。また教師データ521は、正解データとして、各学習用画像に写る組織の領域に付されたアノテーション、又は、各学習用画像に写る組織の種類を示すラベルを含む。
 なお、図7と図8では機械学習を用いた認識処理の推論段階と学習段階を分けて記載したが、以下では、推論段階と学習段階を混在させて記載する場合がある。その場合、制御部110が推論段階の処理を実行し、学習装置500が学習段階の処理を実行することは、上記と同様である。
 図9は、制御部110が組織種類を認識する場合の第1認識処理例である。制御部110は、セグメンテーションによる組織領域認識と、セグメンテーションによる処置具先端領域検出とを行い、それらの結果を合成することで、ジョウに把持された組織の種類を認識する。図9には、「組織種類は膜組織である」と認識された例を示す。なお、制御部110は、セグメンテーションの結果、組織種類の認識結果、又はそれら両方をモニタ表示してもよい。
 具体的には、学習済みモデル121は、組織領域認識を行うための第1学習済みモデルと、処置具先端領域検出を行うための第2学習済みモデルとを含む。制御部110は、第1学習済みモデルを用いた画像認識処理により、内視鏡画像から組織種類毎の領域を検出する。これにより、内視鏡画像に組織種類がマッピングされる。図9には、内視鏡画像から胃の領域、肝臓の領域及び膜の領域が検出された例を示す。学習段階においては、学習装置500は、組織種類毎の領域にアノテーションが付された内視鏡画像を教師データとして、第1学習済みモデルを生成する。制御部110は、第2学習済みモデルを用いた画像認識処理により、内視鏡画像からエネルギーデバイス先端のジョウの領域を検出する。これにより、内視鏡画像においてジョウが把持している位置が特定される。学習段階においては、学習装置500は、エネルギーデバイス先端のジョウの領域にアノテーションが付された内視鏡画像を教師データとして、第2学習済みモデルを生成する。なお、処理毎に学習済みモデルを分離せずに1つの学習済みモデルにより組織領域認識と処置具先端領域検出を実現するように、システムが構成されてもよい。
 制御部110は、処置具先端領域検出により検出されたジョウの領域が、組織領域認識により検出された1又は複数の組織領域のうち、いずれの組織領域に重なるかを判定することで、ジョウに把持された組織の種類を認識する。
 図10は、制御部110が組織種類を認識する場合の第2認識処理例である。制御部110は、ディテクションによる処置具先端の検出と、クラシフィケーションによる把持組織種類の分類とを行うことで、ジョウに把持された組織の種類を認識する。
 具体的には、学習済みモデル121は、処置具先端の検出を行うための第1学習済みモデルと、把持組織種類の分類を行うための第2学習済みモデルとを含む。制御部110は、第1学習済みモデルを用いた画像認識処理により、内視鏡画像からジョウの位置を検出し、そのジョウを内包するバウンディングボックスを生成する。これにより、把持位置とその周辺の注目領域が特定される。学習段階においては、学習装置500は、ジョウを内包するバウンディングボックスが付された内視鏡画像を教師データとして、第1学習済みモデルを生成する。制御部110は、内視鏡画像からバウンディングボックス内の画像を切り出し、その画像を、第2学習済みモデルを用いた画像認識処理に入力することで、バウンディングボックス内の画像に写る組織の種類を分類する。これにより、バウンディングボックス内の画像が、いずれの種類の組織が把持された画像であるかが、特定される。学習段階においては、学習装置500は、ジョウに把持された組織の種類を示すラベルが付された内視鏡画像を教師データとして、第2学習済みモデルを生成する。
 制御部110は、把持組織種類の分類の結果を、ジョウに把持された組織の種類の認識結果として出力する。
 図11は、制御部110が組織種類を認識する場合の出力調整例である。制御部110は、組織種類の認識結果が、エネルギーデバイスにより切りやすい薄膜等の組織であるとき、通常条件よりエネルギー出力を弱める。通常条件は、上述した基準エネルギー出力である。制御部110は、組織種類の認識結果が、エネルギーデバイスにより切りにくい食道等の組織であるとき、通常条件よりエネルギー出力を強める。制御部110は、組織種類の認識結果が、上記以外のその他の組織であるとき、エネルギー出力を通常条件から変更しない。
 なお、図31に、併用デバイスを用いる場合の出力調整例を示す。出力の欄に複数の出力調整が記載されている場合、制御部110は、そのいずれかの出力調整を行う。例えば、画像から「薄膜」が認識されたとき、制御部110は、(1)「HF出力レベルを下げる」、(2)「HF出力時間を短くする、S&Cモードのレベルを下げる」、又は(3)「US単独出力にする」のうちいずれかの出力調整を行う。なお、「HF」は高周波を意味し、「S&C」はシール&カットを意味し、「US」は超音波を意味する。なお、制御部110は画像認識処理の結果に基づいてエネルギー出力を調整するが、後述のように、更にデバイス情報を併用してエネルギー出力を調整してもよい。
 5.組織状態を認識する場合の処理例
 図12は、制御部110が組織状態を認識する場合の処理例である。なお、図7の処理例と異なる部分を主に説明し、図7の処理例と同様な部分について説明を適宜に省略する。
 S1Bに示すように、制御部110に内視鏡画像が入力される。S2Baに示すように、制御部110は、機械学習によって調整された組織認識プログラムを実行することで、内視鏡画像から組織状態を認識する。具体的には、制御部110は、バイポーラデバイスのジョウに把持された組織の状態を認識する。組織状態とは、エネルギーデバイスによる処置中の熱拡散に影響を与えうる状態、即ち、その状態に応じて熱拡散の程度が変化するような状態のことである。組織状態は、例えば、ジョウに把持された組織の周囲組織量、ジョウに把持された組織又はその周辺組織の浸漬量、又は、ジョウに把持された組織の脂肪量等である。浸漬量は、組織を覆う液体の量であり、例えば血液又はリンパ液等の体液による浸漬量である。S2Bbに示すように、制御部110は、内視鏡画像から認識した組織状態を出力する。図12には、血液浸漬量が多い、即ち組織表面がウェットであると認識された例を示す。
 S3Bに示すように、制御部110は、内視鏡画像から認識された組織状態に応じて出力変更指示を行う。出力変更指示の手法は図7のS3Aと同様である。
 学習段階における教師データ521は、学習用画像として、周囲組織量が多い又は少ない画像、液体浸漬量が多い又は少ない画像、又は、脂肪量が多い又は少ない画像等を含む。また教師データ521は、正解データとして、各学習用画像に写る組織の状態を示すラベルを含む。
 図13~図15は、制御部110が組織状態を認識する場合の第1認識処理例である。図13には、組織状態として周辺組織量が認識される例を示す。制御部110は、セグメンテーションによる組織状態領域認識と、セグメンテーションによる処置具先端領域検出とを行い、それらの結果を合成することで、ジョウに把持された組織の状態を認識する。図13には、「周辺組織量が少ない」と認識された例を示す。なお、制御部110は、セグメンテーションの結果、組織状態の認識結果、又はそれら両方をモニタ表示してもよい。
 具体的には、学習済みモデル121は、組織状態領域認識を行うための第1学習済みモデルと、処置具先端領域検出を行うための第2学習済みモデルとを含む。制御部110は、第1学習済みモデルを用いた画像認識処理により、内視鏡画像から組織状態毎の領域を検出する。これにより、内視鏡画像に組織状態がマッピングされる。図13には、血管周囲組織が少ない部分の領域と、血管周囲組織が多い部分の領域とが検出された例を示す。学習段階においては、学習装置500は、組織状態毎の領域にアノテーションが付された内視鏡画像を教師データとして、第1学習済みモデルを生成する。図13では、教師データは、血管周辺組織の量が多い領域、少ない領域又はそれら両方の領域にアノテーションされた画像を含む。制御部110は、第2学習済みモデルを用いた画像認識処理により、内視鏡画像からエネルギーデバイス先端のジョウの領域を検出する。この処理は、図9の処置具先端領域検出と同様である。
 制御部110は、処置具先端領域検出により検出されたジョウの領域が、組織状態領域認識により検出された1又は複数の組織状態領域のうち、いずれの組織状態領域に重なるかを判定することで、ジョウに把持された組織の状態を認識する。
 図14には、組織状態として脂肪量が認識される例を示す。図14には、制御部110が、組織状態領域認識において脂肪の多い領域を検出し、組織状態の認識において「脂肪量が多い」と認識した例を示す。学習段階の教師データは、脂肪量が多い領域、少ない領域又はそれら両方の領域にアノテーションされた画像を含む。図15には、組織状態として浸漬量が認識される例を示す。図15には、組織状態領域認識において浸漬量が多い領域つまりウェットな領域が検出され、組織状態の認識において「浸漬量が多い」と認識された例を示す。学習段階の教師データは、浸漬量が多い領域、少ない領域又はそれら両方の領域にアノテーションされた画像を含む。
 図16は、制御部110が組織状態を認識する場合の第2認識処理例である。制御部110は、ディテクションによる処置具先端の検出と、クラシフィケーションによる把持組織状態の分類とを行うことで、ジョウに把持された組織の状態を認識する。
 具体的には、学習済みモデル121は、処置具先端の検出を行うための第1学習済みモデルと、把持組織状態の分類を行うための第2学習済みモデルとを含む。制御部110は、第1学習済みモデルを用いた画像認識処理により、内視鏡画像からジョウの位置を検出し、そのジョウを内包するバウンディングボックスを生成する。この処理は、図10の処置具先端の検出と同様である。制御部110は、内視鏡画像からバウンディングボックス内の画像を切り出し、その画像を、第2学習済みモデルを用いた画像認識処理に入力することで、バウンディングボックス内の画像に写る組織の状態を分類する。これにより、バウンディングボックス内の画像が、いずれの状態の組織が把持された画像であるかが、特定される。学習段階においては、学習装置500は、ジョウに把持された組織の状態を示すラベルが付された内視鏡画像を教師データとして、第2学習済みモデルを生成する。
 制御部110は、把持組織状態の分類の結果を、ジョウに把持された組織の状態の認識結果として出力する。
 図17は、制御部110が組織状態を認識する場合の出力調整例である。制御部110は、組織状態の認識結果が、エネルギーデバイスにより時間をかけてしっかり封止すべき状態であるとき、通常条件よりエネルギー出力を弱める。その状態は、例えば周辺組織量が少ない状態である。制御部110は、組織種類の認識結果が、エネルギーデバイスにより切りにくい状態であるとき、通常条件よりエネルギー出力を強める。その状態は、例えば脂肪量が多い状態又は血液浸漬量が多い状態である。制御部110は、組織種類の認識結果が、上記以外のその他の組織であるとき、エネルギー出力を通常条件から変更しない。
 なお、図32に、併用デバイスを用いる場合の出力調整例を示す。出力の欄に複数の出力調整が記載されている場合、制御部110は、そのいずれかの出力調整を行う。なお、制御部110は画像認識処理の結果に基づいてエネルギー出力を調整するが、後述のように、更にデバイス情報を併用してエネルギー出力を調整してもよい。
 6.組織把持量を認識する場合の処理例
 図18は、制御部110が組織把持量を認識する場合の処理例である。なお、図7の処理例と異なる部分を主に説明し、図7の処理例と同様な部分について説明を適宜に省略する。
 S1Cに示すように、制御部110に内視鏡画像が入力される。S2Caに示すように、制御部110は、機械学習によって調整された組織認識プログラムを実行することで、内視鏡画像から組織把持量を認識する。具体的には、制御部110は、バイポーラデバイスのジョウが組織を把持しているときの把持量を認識する。把持量は、ジョウが組織を把持している部分の長さ、又はジョウの全長のうち組織を把持している部分の割合である。ジョウで浅く組織を把持した状態はショートピッチと呼ばれ、ジョウで深く組織を把持した状態はロングピッチと呼ばれる。ここでは、把持量が閾値以下である場合をショートピッチ、把持量が閾値以上である場合をロングピッチと呼ぶこととする。S2Cbに示すように、制御部110は、内視鏡画像から認識した把持量と閾値を比較することでショートピッチかロングピッチかを認識する。図18には、組織把持量がショートピッチと認識された例を示す。
 S3Cに示すように、制御部110は、内視鏡画像から認識された組織把持量に応じて出力変更指示を行う。出力変更指示の手法は図7のS3Aと同様である。
 学習段階における教師データ521は、学習用画像として、様々な把持量の画像を含む。例えば、教師データ521は、把持量が閾値以下であるショートピッチの画像と、把持量が閾値以上であるロングピッチの画像とを含む。また教師データ521は、正解データとして、各学習用画像に写る組織把持量を示すラベルを含む。ラベルは、ジョウが組織を把持している部分の長さ、ジョウの全長のうち組織を把持している部分の割合、又はショートピッチかロングピッチかを示す情報等である。
 図19は、制御部110が組織把持量を認識する場合の第1認識処理例である。制御部110は、ディテクションによる処置具先端の検出と、クラシフィケーションによる組織把持量の分類とを行うことで、ジョウの組織把持量を認識する。組織把持量の分類とは、内視鏡画像に写るジョウの把持量が、複数のクラスのいずれのクラスに属するかを分類することである。複数のクラスは、段階的に区切られた把持量範囲を示す。例えば、クラスは、1mm刻み等の所定長さの刻みで区切られる、或いはジョウの全長を100%としたとき10%刻み等の所定割合の刻みで区切られる。
 具体的には、学習済みモデル121は、処置具先端の検出を行うための第1学習済みモデルと、組織把持量の分類を行うための第2学習済みモデルとを含む。制御部110は、第1学習済みモデルを用いた画像認識処理により、内視鏡画像からジョウの位置を検出し、そのジョウを内包するバウンディングボックスを生成する。この処理は、図10の処置具先端の検出と同様である。制御部110は、内視鏡画像からバウンディングボックス内の画像を切り出し、その画像を、第2学習済みモデルを用いた画像認識処理に入力することで、バウンディングボックス内の画像に写るジョウの組織把持量を分類する。これにより、バウンディングボックス内の画像が、どのような組織把持量の画像であるかが、特定される。学習段階においては、学習装置500は、ジョウの組織把持量を示すラベルが付された内視鏡画像を教師データとして、第2学習済みモデルを生成する。
 制御部110は、組織把持量の分類の結果と閾値とを比較することで、ショートピッチかロングピッチかを判定し、その判定結果を組織把持量の認識結果として出力する。図19には、ショートピッチと判定された例を示す。
 図20は、制御部110が組織把持量を認識する場合の第2認識処理例である。制御部110は、クラシフィケーション又はリグレッションにより、処置具先端部の特徴点と、ジョウにより把持された組織との間の定量的な位置関係を推定し、その推定結果から組織把持量を算出する。
 具体的には、制御部110は、学習済みモデル121を用いた画像認識処理により、ジョウの基端から把持組織近位端までの距離x[mm]を推定する。把持組織近位端とは、ジョウに把持された組織においてジョウの基端に最も近い端である。クラシフィケーションが用いられる場合には、制御部110は、距離xが、複数のクラスのいずれのクラスに属するかを分類する。複数のクラスは、段階的に区切られた距離範囲を示す。リグレッションが用いられる場合には、制御部110は、ジョウの基端から把持組織近位端までの距離xそのものを内視鏡画像から推定する。学習段階においては、学習装置500は、ジョウの基端から把持組織近位端までの距離xを示す距離情報がラベルとして付された内視鏡画像を教師データとして、学習済みモデル121を生成する。距離情報は、クラシフィケーションが用いられる場合には距離xが属するクラスであり、リグレッションが用いられる場合には距離xである。
 制御部110は、認識された距離xを用いて把持量=ジョウ全長-xを算出する。制御部110は、その把持量と閾値とを比較することで、ショートピッチかロングピッチかを判定し、その判定結果を組織把持量の認識結果として出力する。図20には、ショートピッチと判定された例を示す。
 図21は、制御部110が組織把持量を認識する場合の出力調整例である。制御部110は、組織把持量の認識結果が、エネルギーデバイスにより切りやすい把持量であるとき、通常条件よりエネルギー出力を弱める。例えば、制御部110は、組織把持量が閾値以下であるショートピッチと認識したとき、通常条件よりエネルギー出力を弱める。制御部110は、組織把持量の認識結果が、上記以外の組織把持量であるとき、エネルギー出力を通常条件から変更しない。
 なお、図33に、併用デバイスを用いる場合の出力調整例を示す。出力の欄に複数の出力調整が記載されている場合、制御部110は、そのいずれかの出力調整を行う。なお、制御部110は画像認識処理の結果に基づいてエネルギー出力を調整するが、後述のように、更にデバイス情報を併用してエネルギー出力を調整してもよい。
 7.組織テンションを認識する場合の処理例
 図22は、制御部110が組織テンションを認識する場合の処理例である。なお、図7の処理例と異なる部分を主に説明し、図7の処理例と同様な部分について説明を適宜に省略する。
 S1Dに示すように、制御部110に内視鏡画像が入力される。S2Daに示すように、制御部110は、機械学習によって調整された組織認識プログラムを実行することで、内視鏡画像から組織テンションを認識する。具体的には、組織テンションは、バイポーラデバイスのジョウに把持された組織にかかるテンションのことである。このテンションは、バイポーラデバイスにより組織が牽引されることで、或いは鉗子等の処置具により組織が牽引されることで発生する。組織に適切なテンションが加えられることで、エネルギーデバイスによる適切な処置が可能になる。しかし、テンションが弱い等の不適切な組織テンションである場合には、エネルギーデバイスによる処置の時間がかかり、熱拡散が生じやすくなる。制御部110は、ジョウに把持された組織にかかるテンションの評価値であるスコアを内視鏡画像から認識する。S2Dbに示すように、制御部110は、内視鏡画像から認識した組織テンションのスコアと閾値とを比較し、その結果を出力する。図22には、組織テンションのスコアが閾値以下である、即ち組織テンションが適切でないと認識された例を示す。
 S3Dに示すように、制御部110は、内視鏡画像から認識された組織テンションに応じて出力変更指示を行う。出力変更指示の手法は図7のS3Aと同様である。
 学習段階における教師データ521は、学習用画像として、様々な組織テンションの画像を含む。また教師データ521は、正解データとして、スコアの算出対象である評価領域と、その評価領域の画像から算出されるスコアとを含む。
 図23は、制御部110が組織テンションを認識する場合の第1認識処理例である。制御部110は、リグレッションによる組織テンションの推定を行うことで、組織テンションのスコアを出力する。
 具体的には、制御部110は、学習済みモデルを用いた画像認識処理により、テンション評価の対象となる評価領域を内視鏡画像から検出すると共に、その評価領域内の画像から組織テンションを推定する。制御部110は、内視鏡画像に写る処置において組織に適切なテンションが加えられている場合に高いスコアを出力する。学習段階においては、学習装置500は、評価領域を指定する情報と、組織テンションのスコアとが付された内視鏡画像を教師データとして、学習済みモデルを生成する。又は、教師データは、動画即ち時系列画像であってもよい。例えば、動画には、エネルギーデバイス又は鉗子により組織を牽引する操作が撮影されており、その動画に対して評価領域と1つのスコアが対応付けられる。スコアは、内視鏡画像又は動画に写る組織の色相、彩度、明度、輝度、又は牽引による組織の移動情報等に基づいて定量化される。その定量化により得られるスコアが、学習用の各内視鏡画像又は各動画に付される。
 図24は、制御部110が組織テンションを認識する場合の第2認識処理例である。制御部110は、ディテクションによる処置具先端の検出を行い、その検出結果に基づいて評価領域を設定し、その評価領域内の画像に対してリグレッションによる組織テンションの推定を行う。
 具体的には、制御部110は、処置具先端の検出を行うための第1学習済みモデルと、組織テンションの推定を行うための第2学習済みモデルとを含む。制御部110は、第1学習済みモデルを用いた画像認識処理により、内視鏡画像からジョウの位置を検出する。制御部110は、検出されたジョウの位置に基づいて、所定ルールに従ってジョウの周囲に評価領域を設定する。所定ルールは、例えば、ジョウの位置を中心とする所定距離内の範囲を評価領域に設定する等のルールである。学習段階においては、学習装置500は、デバイス先端の位置、即ちバイポーラデバイスのジョウの位置を示すアノテーションが付された内視鏡画像を教師データとして、第1学習済みモデルを生成する。制御部110は、第2学習済みモデルを用いた画像認識処理により、評価領域内の画像から組織テンションを推定することで組織テンションのスコアを出力する。学習段階においては、学習装置500は、組織テンションのスコアが付された内視鏡画像又は動画を教師データとして、学習済みモデルを生成する。
 図25は、制御部110が組織テンションを認識する場合の出力調整例である。制御部110は、組織テンションの認識結果が、テンションが弱い、又はエネルギーデバイスにより組織を切りにくい条件を示すとき、通常条件よりエネルギー出力を強める。例えば、制御部110は、組織テンションのスコアが閾値以下であるとき、通常条件よりエネルギー出力を強める。制御部110は、組織テンションの認識結果が、上記以外の組織テンションであるとき、エネルギー出力を通常条件から変更しない。
 なお、図34に、併用デバイスを用いる場合の出力調整例を示す。出力の欄に複数の出力調整が記載されている場合、制御部110は、そのいずれかの出力調整を行う。なお、制御部110は画像認識処理の結果に基づいてエネルギー出力を調整するが、後述のように、更にデバイス情報を併用してエネルギー出力を調整してもよい。
 8.処置具先端部と注意対象の距離を認識する場合の処理例
 図26は、制御部110が処置具先端部と注意対象の距離を認識する場合の処理例である。なお、図7の処理例と異なる部分を主に説明し、図7の処理例と同様な部分について説明を適宜に省略する。
 S1Eに示すように、制御部110に内視鏡画像が入力される。S2Eaに示すように、制御部110は、機械学習によって調整された組織認識プログラムを実行することで、内視鏡画像から、処置具先端部と注意対象の距離を認識する。具体的には、処置具先端部と注意対象の距離は、内視鏡画像においてジョウの領域内の任意の点と注意対象内の任意の点との距離のうち最短距離のことである。注意対象は、熱拡散の影響に注意すべき臓器、組織、又は器具である。例えば、注意対象は、膵臓、主要血管又はクリップ等である。注意対象が臓器又は組織である場合、その臓器又は組織に対して熱拡散の影響が及ぶ可能性がある。注意対象が器具である場合、熱拡散により高温になった器具が、その器具に接する組織に影響を及ぼす可能性がある。S2Ebに示すように、制御部110は、内視鏡画像から認識した距離と閾値とを比較し、その結果を出力する。図26には、距離が閾値以下である、即ち処置具先端部と注意対象が近いと認識された例を示す。
 S3Eに示すように、制御部110は、内視鏡画像から認識された距離に応じて出力変更指示を行う。出力変更指示の手法は図7のS3Aと同様である。
 学習段階における教師データ521は、学習用画像として、ジョウと様々な注意対象が写る画像を含む。また教師データ521は、正解データとして、画像に写るジョウと注意対象の距離を示す距離情報を含む。
 図27は、制御部110が処置具先端部と注意対象の距離を認識する場合の第1認識処理例である。制御部110は、セグメンテーションによる処置具先端及び組織の領域認識と、リグレッションによる2点間の距離の推定とを行う。制御部110は、推定された2点間の距離と閾値とを比較し、2点間の距離が閾値以上であるか閾値未満であるかを判定する。
 具体的には、学習済みモデル121は、処置具先端及び組織の領域認識を行うための第1学習済みモデルと、2点間の距離の推定を行うための第2学習済みモデルとを含む。制御部110は、第1学習済みモデルを用いた画像認識処理により、内視鏡画像からジョウの領域と組織種類毎の領域とクリップの領域を検出する。図27には、内視鏡画像からジョウの領域、膜の領域、膵臓の領域、及び肝臓の領域が検出された例を示す。学習段階においては、学習装置500は、ジョウの領域、組織種類毎の領域、及びクリップの領域にアノテーションが付された内視鏡画像を教師データとして、第1学習済みモデルを生成する。制御部110は、第2学習済みモデルを用いた画像認識処理により、ジョウの先端位置と、注意対象の領域内でジョウの先端位置に最も近い位置との間の距離を推定する。制御部110は、推定された距離と閾値とを比較する。注意対象は、セグメンテーションにより検出された組織、臓器又は器具のうち、予め注意対象と定められた組織、臓器又は器具である。図27には、膵臓が注意対象に設定された例を示す。学習段階においては、学習装置500は、ジョウと注意対象が写ると共にジョウと注意対象の距離を示す距離情報がラベルとして付された内視鏡画像を教師データとして、第2学習済みモデルを生成する。
 図28は、制御部110が処置具先端部と注意対象の距離を認識する場合の出力調整例である。制御部110は、距離の認識結果が、デバイスと注意対象の距離が近いことを示すとき、通常条件よりエネルギー出力を弱める。例えば、制御部110は、認識された距離が閾値以下であるとき、通常条件よりエネルギー出力を弱める。制御部110は、距離の認識結果が、上記以外の距離であるとき、エネルギー出力を通常条件から変更しない。
 なお、図35に、併用デバイスを用いる場合の出力調整例を示す。出力の欄に複数の出力調整が記載されている場合、制御部110は、そのいずれかの出力調整を行う。
 9.表示例
 図29に、エネルギー出力調整に関する情報の表示例を示す。制御部110は、エネルギー出力調整に関する情報を内視鏡画像に重畳して表示画像150を生成し、その表示画像150をモニタ表示する処理を行う。表示画像150は内視鏡システム200のディスプレイ230に表示されてもよいし、或いはナビゲーション表示用に別途設けられたディスプレイに表示されてもよい。
 内視鏡画像には、エネルギー出力調整に関する情報として、画像認識処理の認識結果、その認識結果に基づいて選択された出力情報、又はそれら両方が重畳される。画像認識処理の認識結果は、例えば、検出された組織の領域151、ジョウの領域152、又は、ジョウに把持された組織又は組織把持量等を示す文字情報153等である。ジョウの領域152の代わりに、ジョウの位置を示すバウンディングボックスが表示されてもよい。出力情報は、例えば、選択された出力シーケンスを示す画像154である。或いは、出力情報は、選択されたエネルギー出力設定を示すアイコン表示155であってもよい。アイコン表示155は、例えば、複数のエネルギー出力設定を示す複数のアイコンと、決定されたエネルギー出力設定のアイコンを強調する強調表示156と、を含む。
 10.画像認識結果とデバイス情報を併用したエネルギー出力調整
 以上では、制御部110が画像認識結果に基づいてエネルギー出力調整を行う実施形態を説明したが、制御部110は画像認識結果とデバイス情報を併用してエネルギー出力調整を行ってもよい。図30は、画像認識結果とデバイス情報を併用する場合の処理のフローチャートである。
 ステップS21において、制御部110に、内視鏡システム200の本体装置220から内視鏡画像が入力され、エネルギーデバイス310を制御するジェネレータ300からデバイス情報が入力される。具体的には、図2において、I/Oデバイス190がジェネレータ300からデバイス情報を受信し、その受信されたデバイス情報が制御部110に入力されるように構成すればよい。
 ステップS22において、制御部110は、内視鏡画像からエネルギーデバイス310の視認性を判断する。制御部110は、例えば、エネルギーデバイス310が画像の奥行方向を向いている場合、エネルギーデバイス310のジョウが他の処置具で隠れている場合、又は内視鏡視野内のミスト量が一定以上である場合等に、エネルギーデバイス310の視認性が悪いと判断し、それ以外の場合にエネルギーデバイス310の視認性が良いと判断する。
 ステップS22においてエネルギーデバイス310の視認性が悪いと判断された場合、ステップS23において、制御部110は、画像認識結果を使用せずにデバイス情報を使用する、と決定する。即ち、視認性が悪い場合には、画像認識結果が信用できないと判断し、デバイス情報の使用を決定する。例えば、制御部110は、画像認識結果に基づくエネルギー出力調整指示をジェネレータ300に出力せず、ジェネレータ300がインピーダンス情報に基づく出力自動オフ等の出力制御を行う。或いは、制御部110は、デバイス情報に基づいてエネルギー出力調整指示をジェネレータ300に出力してもよい。但し、画像認識結果に基づいて組織情報又は処置情報を判断する方が、デバイス情報から組織情報又は処置情報を判断する場合よりも様々な又は高精度な情報判断が可能である。この点については、整合性の説明と合わせて図31~図34を用いて後述する。ステップS22においてエネルギーデバイス310の視認性が良いと判断された場合、ステップS24において、制御部110は、機械学習を用いた画像認識の推定確度が第1閾値以上か否かを判断する。ここでは第1閾値を60%とする。
 ステップS23において推定確度が60%未満と判断された場合、ステップS23において、制御部110は、画像認識結果を使用せずにデバイス情報を使用する、と決定する。即ち、推定確度が低い場合には、画像認識結果が信用できないと判断し、デバイス情報の使用を決定する。ステップS23において推定確度が60%以上と判断された場合、ステップS25において、制御部110は、推定確度が第2閾値以上か否かを判断する。第2閾値は第1閾値より高い確度である。ここでは第2閾値を90%とする。
 ステップS25において推定確度が90%以上と判断された場合、ステップS26において、制御部110は画像認識結果に基づいてエネルギー出力調整指示をジェネレータ300に出力する。即ち、推定確度が十分高い場合には、画像認識結果を信用し、画像認識結果を使用する。ジェネレータ300は、エネルギー出力調整指示により設定された出力値又は出力シーケンスでエネルギーデバイス310にエネルギーを供給する。このとき、ジェネレータ300は、エネルギー出力調整指示により設定された出力値又は出力シーケンスのもとで、インピーダンス情報に基づく出力自動オフ等の出力制御を行ってもよい。ステップS25において推定確度が90%未満と判断された場合、ステップS27において、制御部110は、画像認識結果とデバイス情報の整合性を判断する。
 ステップS27において、画像認識結果とデバイス情報の整合性があると判断された場合、ステップS26において、制御部110は画像認識結果に基づいてエネルギー出力調整指示をジェネレータ300に出力する。即ち、画像認識の推定確度が十分には高くない場合であっても、画像認識結果とデバイス情報が整合している場合には、画像認識結果を信用し、画像認識結果を使用する。ステップS27において、画像認識結果とデバイス情報の整合性がないと判断された場合、ステップS23において、制御部110は、画像認識結果を使用せずにデバイス情報を使用する、と決定する。即ち、画像認識結果とデバイス情報が整合しない場合には、画像認識結果が信用できないと判断し、デバイス情報の使用を決定する。
 デバイス情報は、エネルギーデバイスの先端部が接する組織の電気的情報であり、例えば、エネルギーデバイスの先端部が接する組織のインピーダンス情報である。例えば、エネルギーデバイスがバイポーラデバイスである場合には、電気的情報は、2つのジョウに把持された組織のインピーダンス情報である。ジェネレータ300は、バイポーラデバイスの2つのジョウに処置用の高周波電力を出力し、その高周波電力の電圧と電流を測定し、その測定された電圧と電流からインピーダンス情報を取得する。但し、電気的情報はインピーダンス情報に限定されず、組織の種類や処置の進行に応じて変化する情報であればよい。電気的情報は、例えば、電流、電圧、又は電流と電圧の間の位相であってもよい。或いは、電気的情報は、電力、電力量、インピーダンス、レジスタンス(抵抗)、リアクタンス、アドミタンス(インピーダンスの逆数)、コンダクタンス(アドミタンスの実数部)、又はサセプタンス(アドミタンスの虚数部)であってもよい。或いは、電気的情報は、上記の経時的変化、各パラメータ間の変化、各パラメータ間の微分積分(Pをパラメータとしたとき、経時的な微分はdP/dtであり、抵抗による微分はdP/dRである)、塊毎の和差など初等演算により導かれる値、又は、それぞれの閾値を跨いだかどうかといったトリガ情報であってもよい。
 画像認識の推定確度は、推定結果がどの程度確からしいかを示す度合いのことである。クラシフィケーションを行うニューラルネットワークを例にとると、出力層には各クラスに対応したノードが設けられており、入力層の入力データが各クラスに該当する確率が出力層の各ノードに出力される。そのうち最も高い確率が出力されたノードのクラスが分類結果として出力されるが、そのノードに出力されている確率が、分類結果の推定確度として用いられる。或いは、機械学習を用いた画像認識処理において精度評価を行う例では、処置の場面毎に予め精度を取得しておき、その場面と精度を組織情報又は処置情報と共に学習モデルに学習させることで学習済みモデルを生成する。この学習済みモデルを用いた画像認識処理により、組織情報又は処置情報の認識結果と共に、その認識精度が出力され、その認識精度が組織情報又は処置情報の推定確度として用いられる。処置の場面は、例えばエネルギーデバイスの把持方向で定義された場面、或いは手技シーンで定義された場面等である。把持方向で定義された場面は、例えば、エネルギーデバイスが内視鏡画像の奥行方向に向いた状態で組織を把持している場面等である。手技シーンで定義された場面は、例えば、幽門下におけるエネルギーデバイスを用いた処理等である。
 画像認識結果とデバイス情報の整合性は、画像認識情報とデバイス情報の適切な組み合わせが予め決められており、その組み合わせに合致するか否かということである。具体的には、整合性は、画像認識結果が示す組織情報又は処置情報と、デバイス情報が示す組織情報又は処置情報とが整合するか否かを意味する。図31~図34には、画像認識結果とデバイス情報の整合性の例が示されている。例えば図31において、画像認識結果が薄膜又は太い血管であり、デバイス情報が低インピーダンスである場合、画像認識結果とデバイス情報が整合していると判断される。その場合、制御部110は、画像認識結果を信用し、画像認識結果を使用してエネルギー出力調整を行う。低インピーダンスの場合、インピーダンス情報だけでは薄膜と血管が区別されないが、画像認識結果を用いることで、薄膜と血管を区別してエネルギー出力調整できる。逆に、画像認識結果が薄膜又は血管であり、デバイス情報が高インピーダンスである場合、画像認識結果とデバイス情報が整合していないと判断される。その場合、制御部110は、画像認識結果が信用できないと判断し、デバイス情報の使用を決定する。
 以上に説明した本実施形態のシステム10は、学習済みモデル121を記憶する記憶部120と、制御部110と、を含む。学習済みモデル121は、学習用デバイス組織画像又は学習用組織画像から画像認識情報を出力するように学習される。学習用デバイス組織画像は、エネルギー供給を受けてエネルギー出力を行う少なくとも1つのエネルギーデバイス310及び少なくとも1つの生体組織が撮像された画像である。学習用組織画像は、少なくとも1つの生体組織が撮像された画像である。画像認識情報は、少なくとも1つの生体組織に関する組織情報、又は少なくとも1つの生体組織に対する処置に関する処置情報の少なくとも1つである。制御部110は、少なくとも1つのエネルギーデバイス310及び少なくとも1つの生体組織が撮像された画像である撮像画像を取得する。制御部110は、記憶部120に記憶された学習済みモデル121に基づく処理により、撮像画像から画像認識情報を推定する。制御部110は、推定した画像認識情報に基づくエネルギー出力調整指示をジェネレータ300に対して出力する。ジェネレータ300は、エネルギーデバイス310へのエネルギー供給量をエネルギー出力調整指示に基づいて制御する。
 本実施形態によれば、撮像画像から画像認識された組織情報又は処置情報に基づいてエネルギーデバイス310のエネルギー出力が調整される。これにより、インピーダンス情報等のデバイス情報のみからでは判別できない様々な情報に基づいて、エネルギー出力を調整することが可能になる。例えば、図31等で上述したように、インピーダンス情報では区別できない組織種類を画像認識によって判別可能になり、その判別した組織種類に応じたエネルギー出力調整が可能になる。
 そして、画像認識された様々な情報を用いることで、エネルギーデバイス310による処置における熱拡散を考慮したエネルギー出力調整が可能になる。例えば、画像認識された組織情報又は処置情報から予想される熱拡散が大きい場合にはエネルギー出力を下げる等のエネルギー出力調整が可能になる。デバイス情報を用いる場合よりも詳細な情報判別が可能であることから、様々な熱拡散の状況を考慮したエネルギー出力調整が可能になる。なお、画像認識情報、組織情報、処置情報、及びエネルギー出力調整指示については、例えば「1.システム」で説明されている。
 また本実施形態では、制御部110は、画像認識情報に基づいて、エネルギー出力を基準エネルギー出力から増加させる、減少させる又は維持する調整のいずれかを決定し、決定した調整の指示をエネルギー出力調整指示として出力してもよい。
 本実施形態によれば、画像認識情報に基づいてエネルギー出力が増加、減少又は維持されることで、画像認識情報から予想される熱拡散に応じてエネルギー出力を増加、減少又は維持できる。例えば、エネルギー印加時間が長くなることが画像認識情報から予想される場合には、エネルギー出力を増加させることで、エネルギー印加時間を短くして熱拡散を低減できる。なお、「エネルギー出力を基準エネルギー出力から増加させる、減少させる又は維持する調整」については、例えば「4.組織種類を認識する場合の処理例」で説明されている。
 また本実施形態では、制御部110は、予め設定されたエネルギー出力、又はジェネレータ300のリアルタイムのエネルギー出力を基準エネルギー出力として、エネルギー出力調整指示を出力してもよい。
 「予め設定されたエネルギー出力」とは、エネルギー出力調整の基準エネルギー出力として予め設定されており、リアルタイムのエネルギー出力とは関係無く決まった基準エネルギー出力が用いられるという意味である。「リアルタイムのエネルギー出力」とは、制御部110がエネルギー出力調整指示を出力するときに、ジェネレータ300に設定されていたエネルギー出力のことである。即ち、その基準エネルギー出力は毎回異なる可能性がある。
 また本実施形態では、制御部110は、内視鏡210からの内視鏡画像を撮像画像として取得し、内視鏡画像を取得した時点において設定されているエネルギー出力を基準エネルギー出力として、エネルギー出力調整指示を出力してもよい。
 「内視鏡画像を取得した時点において設定されているエネルギー出力」とは、内視鏡画像から画像認識した情報に基づいてエネルギー出力調整指示が出力されるときに、その内視鏡画像を取得した時点において設定されていたエネルギー出力のことである。
 また本実施形態では、エネルギーデバイス310は、組織を把持可能な2つのジョウを有するデバイスであり、ジェネレータ300からエネルギー供給を受けて2つのジョウからエネルギー出力を行うデバイスであってもよい。
 即ち、エネルギーデバイス310は、バイポーラデバイス330であってもよい。バイポーラデバイスについては、例えば「3.エネルギーデバイス」の図5で説明されている。
 また本実施形態では、組織情報は、少なくとも1つのエネルギーデバイスにより処置される組織の組織種類又は組織状態を含んでもよい。
 本実施形態によれば、撮像画像から画像認識された組織種類又は組織状態に基づいてエネルギーデバイス310のエネルギー出力が調整される。エネルギーデバイス310により処置されるときの熱拡散の度合いは、組織種類又は組織状態に応じて異なっている。画像認識された組織種類又は組織状態を用いることで、その組織種類又は組織状態における熱拡散を考慮したエネルギー出力調整が可能になる。なお、組織種類については、例えば「4.組織種類を認識する場合の処理例」で説明されている。組織状態については、例えば「5.組織状態を認識する場合の処理例」で説明されている。
 また本実施形態では、処置情報は、少なくとも1つのエネルギーデバイスによる組織の把持量、又は、少なくとも1つのエネルギーデバイス又はその他のデバイスによる組織の牽引量を含んでもよい。
 本実施形態によれば、撮像画像から画像認識された把持量又は牽引量に基づいてエネルギーデバイス310のエネルギー出力が調整される。エネルギーデバイス310により処置されるときの熱拡散の度合いは、把持量又は牽引量に応じて異なっている。画像認識された把持量又は牽引量を用いることで、その把持量又は牽引量における熱拡散を考慮したエネルギー出力調整が可能になる。なお、把持量については、例えば「6.組織把持量を認識する場合の処理例」で説明されている。牽引については、例えば「7.組織テンションを認識する場合の処理例」で説明されている。
 また本実施形態では、処置情報は、少なくとも1つのエネルギーデバイスにより処置される組織のテンション、又は少なくとも1つのエネルギーデバイスと注意対象との距離を含んでもよい。
 本実施形態によれば、撮像画像から画像認識された組織のテンション又はエネルギーデバイスと注意対象との距離に基づいてエネルギーデバイス310のエネルギー出力が調整される。エネルギーデバイス310により処置されるときの熱拡散の度合いは、組織のテンション又はエネルギーデバイスと注意対象との距離に応じて異なっている。画像認識された組織のテンション又はエネルギーデバイスと注意対象との距離を用いることで、その組織のテンション又はエネルギーデバイスと注意対象との距離における熱拡散を考慮したエネルギー出力調整が可能になる。なお、組織のテンションについては、例えば「7.組織テンションを認識する場合の処理例」で説明されている。エネルギーデバイスと注意対象との距離については、例えば「8.処置具先端部と注意対象の距離を認識する場合の処理例」で説明されている。
 また本実施形態では、制御部110は、画像認識情報を推定するときの推定確度に基づいて、エネルギー出力の制御における、画像認識情報と少なくとも1つのエネルギーデバイス310から得られる電気的情報との使用優先度を変更してもよい。
 本実施形態によれば、画像認識情報に基づくエネルギー出力調整が行われることと、画像認識情報に基づくエネルギー出力調整が行われずに電気的情報に基づくエネルギー出力の制御が行われることとの、優先度が、推定確度に応じて変更される。これにより、画像認識情報が信用できるか否かに応じて、上記のいずれを優先するかを制御できる。なお、「エネルギー出力の制御」は必ずしも制御部110が行う必要はない。例えば、画像認識情報を優先する場合には、制御部110が画像認識情報に基づいてエネルギー出力調整指示を出力し、電気的情報を優先する場合には、ジェネレータ300が電気的情報に基づいてエネルギー出力を制御してもよい。この後者の場合、制御部110は、画像認識情報に基づくエネルギー出力調整指示を出力しないことを決定することで、電気的情報の使用を優先していることになる。なお、使用優先度の変更については、例えば「10.画像認識結果とデバイス情報を併用したエネルギー出力調整」で説明されている。
 また本実施形態では、制御部110は、少なくとも1つのエネルギーデバイス310からの電気的情報を取得してもよい。制御部110は、画像認識情報と電気的情報の整合性に基づいて、エネルギー出力の制御における画像認識情報と電気的情報の使用優先度を変更してもよい。
 本実施形態によれば、画像認識情報と電気的情報の整合性に基づいて、画像認識情報が信用できるか否かを判断できる。これにより、画像認識情報が信用できるか否かに応じて、画像認識情報と電気的情報のいずれを優先するかを制御できる。「画像認識情報と電気的情報の整合性」については、例えば「10.画像認識結果とデバイス情報を併用したエネルギー出力調整」で説明されている。
 また本実施形態では、制御部110は、撮像画像と、画像認識情報の内容又はエネルギー出力調整指示の内容のうち少なくとも1つとを表示部に表示する処理を行う。
 本実施形態によれば、ユーザは、表示部に表示された画像認識情報の内容又はエネルギー出力調整指示の内容のうち少なくとも1つを見ることで、エネルギー出力の自動制御において装置内部で処理された内容を知ることができる。なお、情報が表示される表示部は、内視鏡システム200のディスプレイ230、或いは、それ以外に設けられるディスプレイのいずれであってもよい。表示については、例えば「9.表示例」で説明されている。
 また本実施形態では、学習済みモデル121は、第1学習済みモデルと第2学習済みモデルを含んでもよい。第1学習済みモデルは、学習用デバイス組織画像から、少なくとも1つのエネルギーデバイスの先端部を示すバウンディングボックスを検出するように学習される。第2学習済みモデルは、バウンディングボックス内の学習用デバイス組織画像から画像認識情報を出力するように学習される。制御部110は、第1学習済みモデルに基づく処理により、撮像画像からバウンディングボックスを検出し、第2学習済みモデルに基づく処理により、バウンディングボックス内の撮像画像から画像認識情報を推定する。
 本実施形態によれば、機械学習を用いたディテクションとクラシフィケーション又はリグレッションとの組み合わせにより、撮像画像から組織情報又は処置情報を画像認識できる。なお、本処理については、例えば「4.組織種類を認識する場合の処理例」の図10、「5.組織状態を認識する場合の処理例」の図14、「6.組織把持量を認識する場合の処理例」の図19、又は「7.組織テンションを認識する場合の処理例」の図24等で説明されている。
 また本実施形態では、学習済みモデル121は、学習用デバイス組織画像又は学習用組織画像から、少なくとも1つの生体組織の各生体組織の領域を検出し、学習用デバイス組織画像から、少なくとも1つのエネルギーデバイスの先端部領域を検出するように学習したモデルであってもよい。制御部110は、学習済みモデル121に基づく処理により、撮像画像から各生体組織の領域と先端部領域を検出し、検出した各生体組織の領域と先端部領域に基づいて画像認識情報を推定してもよい。
 本実施形態によれば、機械学習を用いたセグメンテーションにより、撮像画像から組織情報又は処置情報を画像認識できる。なお、本処理については、例えば「4.組織種類を認識する場合の処理例」の図9、又は「5.組織状態を認識する場合の処理例」の図13~図15等で説明されている。
 また本実施形態では、システム10は、少なくとも1つのエネルギーデバイス310と、ジェネレータ300と、を含んでもよい。
 また本実施形態では、システム10は、撮像画像として内視鏡画像を撮像する内視鏡210を含んでもよい。制御部110は、内視鏡210から内視鏡画像を取得し、学習済みモデル121に基づく処理により内視鏡画像から画像認識情報を推定してもよい。
 また以上の処理はプログラムとして記述されてもよい。即ち、本実施形態のプログラムは、撮像画像を取得することと、学習済みモデル121に基づく処理により撮像画像から画像認識情報を推定することと、推定した画像認識情報に基づくエネルギー出力調整指示をジェネレータ300に対して出力することと、をコンピュータに実行させる。
 また以上の処理はエネルギー出力調整方法として実行されてもよい。即ち、本実施形態のエネルギー出力調整方法は、撮像画像を取得することと、学習済みモデル121に基づく処理により撮像画像から画像認識情報を推定することと、推定した画像認識情報に基づくエネルギー出力調整指示をジェネレータ300に対して出力することと、を含む。
 以上、本実施形態及びその変形例について説明したが、本開示は、各実施形態やその変形例そのままに限定されるものではなく、実施段階では、要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることができる。例えば、各実施形態や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。更に、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、本開示の主旨を逸脱しない範囲内において種々の変形や応用が可能である。また、明細書又は図面において、少なくとも一度、より広義又は同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。
10 システム、100 コントローラ、110 制御部、111 画像取得部、112 組織情報認識部、113 出力設定部、120 記憶部、121 モデル、150 表示画像、151,152 領域、153 文字情報、154 画像、155 アイコン表示、156 強調表示、180,190 I/Oデバイス、200 内視鏡システム、210 内視鏡、220 本体装置、230 ディスプレイ、300 ジェネレータ、310 エネルギーデバイス、320 モノポーラデバイス、321 電極、322 挿入部、323 操作部、325 ケーブル、330 バイポーラデバイス、331 先端部、332 挿入部、333 操作部、335 ケーブル、336 基端、337,338 ジョウ、340 超音波デバイス、341 先端部、342 挿入部、343 操作部、344a,344b 操作ボタン、345 ケーブル、346 基端、347 ジョウ、348 プローブ、500 学習装置、510 処理部、520 記憶部、521 教師データ、522 学習モデル

Claims (17)

  1.  エネルギー供給を受けてエネルギー出力を行う少なくとも1つのエネルギーデバイス及び少なくとも1つの生体組織が撮像された画像である学習用デバイス組織画像、又は前記少なくとも1つの生体組織が撮像された画像である学習用組織画像から、前記少なくとも1つの生体組織に関する組織情報、又は前記少なくとも1つの生体組織に対する処置に関する処置情報の少なくとも1つである画像認識情報を出力するように学習した学習済みモデルを記憶する記憶部と、
     制御部と、
     を含み、
     前記制御部は、
     前記少なくとも1つのエネルギーデバイス及び前記少なくとも1つの生体組織が撮像された画像である撮像画像を取得し、
     前記記憶部に記憶された前記学習済みモデルに基づく処理により、前記撮像画像から前記画像認識情報を推定し、
     推定した前記画像認識情報に基づくエネルギー出力調整指示を、エネルギーデバイスへのエネルギー供給量を前記エネルギー出力調整指示に基づいて制御するジェネレータに対して、出力することを特徴とするシステム。
  2.  請求項1に記載されたシステムにおいて、
     前記制御部は、
     前記画像認識情報に基づいて、前記エネルギー出力を基準エネルギー出力から増加させる、減少させる又は維持する調整のいずれかを決定し、
     前記決定した調整の指示を前記エネルギー出力調整指示として出力することを特徴とするシステム。
  3.  請求項2に記載されたシステムにおいて、
     前記制御部は、
     予め設定されたエネルギー出力、又は前記ジェネレータのリアルタイムの前記エネルギー出力を前記基準エネルギー出力として、前記エネルギー出力調整指示を出力することを特徴とするシステム。
  4.  請求項2に記載されたシステムにおいて、
     前記制御部は、
     内視鏡からの内視鏡画像を前記撮像画像として取得し、前記内視鏡画像を取得した時点において設定されている前記エネルギー出力を前記基準エネルギー出力として、前記エネルギー出力調整指示を出力することを特徴とするシステム。
  5.  請求項1に記載されたシステムにおいて、
     前記エネルギーデバイスは、
     組織を把持可能な2つのジョウを有するデバイスであり、前記ジェネレータから前記エネルギー供給を受けて前記2つのジョウからエネルギー出力を行うデバイスであることを特徴とするシステム。
  6.  請求項1に記載されたシステムにおいて、
     前記組織情報は、前記少なくとも1つのエネルギーデバイスにより処置される組織の組織種類又は組織状態を含むことを特徴とするシステム。
  7.  請求項1に記載されたシステムにおいて、
     前記処置情報は、前記少なくとも1つのエネルギーデバイスによる組織の把持量、又は、前記少なくとも1つのエネルギーデバイス又はその他のデバイスによる組織の牽引量を含むことを特徴とするシステム。
  8.  請求項1に記載されたシステムにおいて、
     前記処置情報は、前記少なくとも1つのエネルギーデバイスにより処置される組織のテンション、又は前記少なくとも1つのエネルギーデバイスと注意対象との距離を含むことを特徴とするシステム。
  9.  請求項1に記載されたシステムにおいて、
     前記制御部は、
     前記画像認識情報を推定するときの推定確度に基づいて、前記エネルギー出力の制御における、前記画像認識情報と前記少なくとも1つのエネルギーデバイスから得られる電気的情報との使用優先度を変更することを特徴とするシステム。
  10.  請求項1に記載されたシステムにおいて、
     前記制御部は、
     前記少なくとも1つのエネルギーデバイスからの電気的情報を取得し、
     前記画像認識情報と前記電気的情報との整合性に基づいて、前記エネルギー出力の制御における前記画像認識情報と前記電気的情報の使用優先度を変更することを特徴とするシステム。
  11.  請求項1に記載されたシステムにおいて、
     前記制御部は、
     前記撮像画像と、前記画像認識情報の内容又は前記エネルギー出力調整指示の内容のうち少なくとも1つとを表示部に表示する処理を行うことを特徴とするシステム。
  12.  請求項1に記載されたシステムにおいて、
     前記学習済みモデルは、
     前記学習用デバイス組織画像から、前記少なくとも1つのエネルギーデバイスの先端部を示すバウンディングボックスを検出するように学習した第1学習済みモデルと、
     前記バウンディングボックス内の前記学習用デバイス組織画像から前記画像認識情報を出力するように学習した第2学習済みモデルと、
     を含み、
     前記制御部は、
     前記第1学習済みモデルに基づく処理により、前記撮像画像から前記バウンディングボックスを検出し、前記第2学習済みモデルに基づく処理により、前記バウンディングボックス内の前記撮像画像から前記画像認識情報を推定することを特徴とするシステム。
  13.  請求項1に記載されたシステムにおいて、
     前記学習済みモデルは、
     前記学習用デバイス組織画像又は前記学習用組織画像から、前記少なくとも1つの生体組織の各生体組織の領域を検出し、前記学習用デバイス組織画像から、前記少なくとも1つのエネルギーデバイスの先端部領域を検出するように学習したモデルであり、
     前記制御部は、
     前記学習済みモデルに基づく処理により、前記撮像画像から前記各生体組織の領域と前記先端部領域を検出し、
     検出した前記各生体組織の領域と前記先端部領域に基づいて前記画像認識情報を推定することを特徴とするシステム。
  14.  請求項1に記載されたシステムにおいて、
     前記少なくとも1つのエネルギーデバイスと、
     前記ジェネレータと、
     を含むことを特徴とするシステム。
  15.  請求項14に記載されたシステムにおいて、
     前記撮像画像として内視鏡画像を撮像する内視鏡を含み、
     前記制御部は、
     前記内視鏡から前記内視鏡画像を取得し、前記学習済みモデルに基づく処理により前記内視鏡画像から前記画像認識情報を推定することを特徴とするシステム。
  16.  エネルギー供給を受けてエネルギー出力を行う少なくとも1つのエネルギーデバイス及び少なくとも1つの生体組織が撮像された画像である撮像画像を取得することと、
     前記少なくとも1つのエネルギーデバイス及び前記少なくとも1つの生体組織が撮像された画像である学習用デバイス組織画像、又は前記少なくとも1つの生体組織が撮像された画像である学習用組織画像から、前記少なくとも1つの生体組織に関する組織情報、又は前記少なくとも1つの生体組織に対する処置に関する処置情報の少なくとも1つである画像認識情報を出力するように学習した学習済みモデルに基づく処理により、前記撮像画像から前記画像認識情報を推定することと、
     推定した前記画像認識情報に基づくエネルギー出力調整指示を、エネルギーデバイスへのエネルギー供給量を前記エネルギー出力調整指示に基づいて制御するジェネレータに対して、出力することと、
     をコンピュータに実行させることを特徴とするプログラム。
  17.  エネルギー供給を受けてエネルギー出力を行う少なくとも1つのエネルギーデバイス及び少なくとも1つの生体組織が撮像された画像である撮像画像を取得することと、
     前記少なくとも1つのエネルギーデバイス及び前記少なくとも1つの生体組織が撮像された画像である学習用デバイス組織画像、又は前記少なくとも1つの生体組織が撮像された画像である学習用組織画像から、前記少なくとも1つの生体組織に関する組織情報、又は前記少なくとも1つの生体組織に対する処置に関する処置情報の少なくとも1つである画像認識情報を出力するように学習した学習済みモデルに基づく処理により、前記撮像画像から前記画像認識情報を推定することと、
     推定した前記画像認識情報に基づくエネルギー出力調整指示を、エネルギーデバイスへのエネルギー供給量を前記エネルギー出力調整指示に基づいて制御するジェネレータに対して、出力することと、
     を含むことを特徴とするエネルギー出力調整方法。
PCT/JP2022/009691 2021-07-13 2022-03-07 システム、プログラム及びエネルギー出力調整方法 WO2023286334A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2023535109A JP7493684B2 (ja) 2021-07-13 2022-03-07 システム及びプログラム
CN202280014637.9A CN116887771A (zh) 2021-07-13 2022-03-07 系统、程序以及能量输出调整方法
US18/234,168 US20230380695A1 (en) 2021-07-13 2023-08-15 System, information storage medium, and energy output adjustment method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202163221128P 2021-07-13 2021-07-13
US63/221,128 2021-07-13
US202163222252P 2021-07-15 2021-07-15
US63/222,252 2021-07-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/234,168 Continuation US20230380695A1 (en) 2021-07-13 2023-08-15 System, information storage medium, and energy output adjustment method

Publications (1)

Publication Number Publication Date
WO2023286334A1 true WO2023286334A1 (ja) 2023-01-19

Family

ID=84919163

Family Applications (4)

Application Number Title Priority Date Filing Date
PCT/JP2022/009693 WO2023286336A1 (ja) 2021-07-13 2022-03-07 システム、プログラム及び判定方法
PCT/JP2022/009691 WO2023286334A1 (ja) 2021-07-13 2022-03-07 システム、プログラム及びエネルギー出力調整方法
PCT/JP2022/009694 WO2023286337A1 (ja) 2021-07-13 2022-03-07 システム、プログラム及び情報処理方法
PCT/JP2022/009692 WO2023286335A1 (ja) 2021-07-13 2022-03-07 システム、プログラム及び情報処理方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/009693 WO2023286336A1 (ja) 2021-07-13 2022-03-07 システム、プログラム及び判定方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
PCT/JP2022/009694 WO2023286337A1 (ja) 2021-07-13 2022-03-07 システム、プログラム及び情報処理方法
PCT/JP2022/009692 WO2023286335A1 (ja) 2021-07-13 2022-03-07 システム、プログラム及び情報処理方法

Country Status (3)

Country Link
US (4) US20230380695A1 (ja)
JP (4) JP7602645B2 (ja)
WO (4) WO2023286336A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170252095A1 (en) * 2016-03-01 2017-09-07 Covidien Lp Surgical instruments and systems incorporating machine learning based tissue identification and methods thereof
WO2020051444A1 (en) * 2018-09-07 2020-03-12 Ethicon Llc Grounding arrangement of energy modules

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9259287B2 (en) 2013-04-02 2016-02-16 Siemens Aktiengesellschaft Patient specific planning and simulation of ablative procedures
CN107847276B (zh) * 2015-04-02 2021-03-16 哈特弗罗公司 用于提供对生物热传递的个性化估计的系统和方法
JPWO2017090165A1 (ja) * 2015-11-26 2018-08-30 オリンパス株式会社 処置システム、及び処置具
US11908584B2 (en) * 2017-05-15 2024-02-20 Ne Scientific, Llc Methods and systems for modeling a necrotized tissue volume in an ablation procedure
CN112020338B (zh) 2018-02-23 2024-10-08 生物相容英国有限公司 体积成像
JP7043317B2 (ja) * 2018-03-29 2022-03-29 富士フイルムヘルスケア株式会社 医療システム
WO2020095389A1 (ja) * 2018-11-07 2020-05-14 オリンパス株式会社 医療装置、残熱判定方法、及び残熱判定プログラム
US12193871B2 (en) 2018-11-20 2025-01-14 Koninklijke Philips N.V. Temporal mapping of thermal ablation areas
US20210038314A1 (en) 2019-08-11 2021-02-11 phenoMapper, LLC Method and System for Personalized Treatment Planning in Ablation of Cancerous Tissue
JP2021029258A (ja) * 2019-08-13 2021-03-01 ソニー株式会社 手術支援システム、手術支援方法、情報処理装置、及び情報処理プログラム
JP2021029979A (ja) 2019-08-29 2021-03-01 国立研究開発法人国立がん研究センター 教師データ生成装置、教師データ生成プログラム及び教師データ生成方法
US20210085387A1 (en) * 2019-09-22 2021-03-25 Biosense Webster (Israel) Ltd. Guiding cardiac ablation using machine learning (ml)
JP7438731B2 (ja) 2019-11-29 2024-02-27 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理装置の作動方法及び医用画像処理プログラム
JP7482690B2 (ja) * 2020-06-04 2024-05-14 リンナイ株式会社 加熱調理システム、加熱調理方法、学習装置および学習方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170252095A1 (en) * 2016-03-01 2017-09-07 Covidien Lp Surgical instruments and systems incorporating machine learning based tissue identification and methods thereof
WO2020051444A1 (en) * 2018-09-07 2020-03-12 Ethicon Llc Grounding arrangement of energy modules

Also Published As

Publication number Publication date
US20230419486A1 (en) 2023-12-28
JP7465413B2 (ja) 2024-04-10
JPWO2023286337A1 (ja) 2023-01-19
WO2023286336A1 (ja) 2023-01-19
US20230404652A1 (en) 2023-12-21
JP7602646B2 (ja) 2024-12-18
JP7493684B2 (ja) 2024-05-31
JP7602645B2 (ja) 2024-12-18
WO2023286335A1 (ja) 2023-01-19
JPWO2023286334A1 (ja) 2023-01-19
JPWO2023286335A1 (ja) 2023-01-19
US20230380695A1 (en) 2023-11-30
US20230410298A1 (en) 2023-12-21
WO2023286337A1 (ja) 2023-01-19
JPWO2023286336A1 (ja) 2023-01-19

Similar Documents

Publication Publication Date Title
US8968314B2 (en) Apparatus, system and method for performing an electrosurgical procedure
JP5789387B2 (ja) 重要な構造に対する近接を決定するためのシステムおよび方法
US8753333B2 (en) System for determining proximity relative to a nerve
EP2364660B1 (en) System for determining proximity relative to a critical structure
JP2003116871A (ja) 処置具
EP4285853A1 (en) Surgery details evaluation system, surgery details evaluation method, and computer program
WO2023286334A1 (ja) システム、プログラム及びエネルギー出力調整方法
US20230071343A1 (en) Energy-based surgical systems and methods based on an artificial-intelligence learning system
CN116887771A (zh) 系统、程序以及能量输出调整方法
US20240099763A1 (en) Tissue therapy energy delivery using optical imaging
CN118742969A (zh) 医学成像设备、医学系统、用于运行医学成像设备的方法和用于医学成像的方法
JP5681142B2 (ja) 組織抵抗に依存して電圧を制御する電気的作用によって組織を溶解又は凝固させる方法及び装置
US20240260811A1 (en) Medical system and notification method
JP6184649B1 (ja) 処置システム及び制御装置
US20230042032A1 (en) Energy-based surgical systems and methods based on an artificial-intelligence learning system
CN117460474A (zh) 使用光学成像进行组织治疗能量递送
JPWO2023286334A5 (ja)
CN118215445A (zh) 基于腹腔镜视频的实时视觉分析的智能能量装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22841684

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023535109

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 202280014637.9

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22841684

Country of ref document: EP

Kind code of ref document: A1