[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2014077396A1 - 超音波診断装置及び画像処理方法 - Google Patents

超音波診断装置及び画像処理方法 Download PDF

Info

Publication number
WO2014077396A1
WO2014077396A1 PCT/JP2013/081063 JP2013081063W WO2014077396A1 WO 2014077396 A1 WO2014077396 A1 WO 2014077396A1 JP 2013081063 W JP2013081063 W JP 2013081063W WO 2014077396 A1 WO2014077396 A1 WO 2014077396A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
ultrasonic
region
interest
contrast
Prior art date
Application number
PCT/JP2013/081063
Other languages
English (en)
French (fr)
Inventor
寛樹 吉新
侑子 金山
嶺 喜隆
淙 姚
田中 豪
Original Assignee
株式会社東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社東芝
Priority to CN201380002850.9A priority Critical patent/CN103930041B/zh
Publication of WO2014077396A1 publication Critical patent/WO2014077396A1/ja
Priority to US14/713,720 priority patent/US10039525B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0866Detecting organic movements or changes, e.g. tumours, cysts, swellings involving foetal diagnosis; pre-natal or peri-natal diagnosis of the baby
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0883Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/481Diagnostic techniques involving the use of contrast agent, e.g. microbubbles introduced into the bloodstream
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/523Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for generating planar views from image data in a user selectable plane not corresponding to the acquisition plane
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3413Needle locating or guiding means guided by ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00636Sensing and controlling the application of energy
    • A61B2018/00696Controlled or regulated parameters
    • A61B2018/00738Depth, e.g. depth of ablation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • A61B18/14Probes or electrodes therefor
    • A61B2018/1405Electrodes having a specific shape
    • A61B2018/1425Needle
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/04Constructional details of apparatus
    • A61B2560/0475Special features of memory means, e.g. removable memory cards

Definitions

  • Embodiments described herein relate generally to an ultrasonic diagnostic apparatus and an image processing method.
  • the ultrasonic diagnostic apparatus plays an important role in today's medical care as a medical diagnostic imaging apparatus having various advantages such as simple operability, non-invasiveness without the risk of exposure, and small system scale. That is, the ultrasonic diagnostic apparatus can display in real time the state of movement of the test object such as, for example, the pulsation of the heart or the movement of the fetus, by a simple operation of simply touching the ultrasonic probe from the body surface. Further, since the ultrasonic diagnostic apparatus is non-invasive, it is highly safe and can be repeatedly tested.
  • Ultrasonic diagnostic equipment is smaller in scale than other medical diagnostic imaging equipment such as X-ray diagnostic equipment, X-ray CT (Computed Tomography) equipment, MRI (Magnetic Resonance Imaging) equipment, and moves to the bedside. All inspections can be performed easily.
  • X-ray diagnostic equipment X-ray CT (Computed Tomography) equipment
  • MRI Magnetic Resonance Imaging
  • an ultrasonic diagnostic apparatus an apparatus that has been miniaturized to the extent that it can be carried with one hand has been developed, and such an ultrasonic diagnostic apparatus can be easily used in medical settings such as obstetrics and home medical care.
  • the ultrasound contrast agent may be omitted and referred to as a contrast agent.
  • the contrast echo method is intended to evaluate blood flow dynamics by, for example, injecting a contrast medium from a vein to enhance a blood flow signal in an examination of the heart or liver.
  • microbubbles function as a reflection source.
  • Sonazoid registered trademark
  • a microbubble encapsulating perfluorobutane gas with phospholipid is a second-generation ultrasound contrast agent called Sonazoid (registered trademark) recently released in Japan.
  • Sonazoid registered trademark
  • the state of reflux of the contrast agent can be stably observed by using transmission ultrasonic waves having a low and medium sound pressure that does not destroy microbubbles.
  • a needle biopsy for pathological examination of tumor tissue may be performed under an ultrasonic guide using an ultrasonic diagnostic apparatus.
  • puncture of an RFA needle (electrode needle) for radiofrequency ablation (RFA) of a localized tumor such as liver cancer is performed under an ultrasonic guide.
  • An ultrasonic diagnostic apparatus is also used for determining the therapeutic effect of RFA.
  • RFA treatment is a treatment method in which an electrode needle is inserted from the body surface toward a lesioned part (tumor part), and the lesioned part is coagulated and killed by a high temperature generated by radio waves.
  • the contrast-enhanced ultrasound described above is often used to determine the effect of RFA treatment.
  • an area for RFA treatment (treatment planning area) has a margin of about 5 mm in all directions with respect to the tumor boundary.
  • the X-ray CT volume data, MRI volume data, or ultrasonic volume data before treatment is used as a reference image, and the ultrasonic volume data after treatment is aligned with the reference image, and objective effect determination is performed.
  • This method measures the distance between the tumor boundary and the ablation area boundary based on the alignment between the pre-treatment reference image and the post-treatment ultrasound volume data, and displays the measured distance in color to the doctor. It is a method of presenting a quantitative therapeutic effect.
  • the tissue image may change before and after the treatment, and gas may be generated, which may make the alignment process difficult.
  • the doctor needs to grasp the necessity of additional treatment instantly.
  • the problem to be solved by the present invention is to provide an ultrasonic diagnostic apparatus and an image processing method capable of quickly and easily performing reliable therapeutic effect determination of radiofrequency ablation.
  • the ultrasonic diagnostic apparatus includes an acquisition unit, an image generation unit, and a control unit.
  • the acquisition unit acquires the position of the boundary of the region of interest set in the first ultrasonic image data of the subject.
  • the image generation unit includes, in the pre-contrast image data and post-contrast image data collected after the treatment using the puncture needle, a pixel whose luminance value change before and after contrast is equal to or greater than a threshold value.
  • second ultrasonic image data to which pixel values corresponding to the distance between the region of interest and the boundary of the region of interest are assigned.
  • the control unit causes the display unit to display the second ultrasonic image data.
  • FIG. 1 is a diagram illustrating a configuration example of an ultrasonic diagnostic apparatus according to the first embodiment.
  • FIG. 2 is a flowchart showing an example of a workflow of RFA treatment performed in the first embodiment.
  • FIG. 3 is a diagram for explaining the detection unit illustrated in FIG. 1.
  • FIG. 4 is a diagram (1) for explaining the acquisition unit illustrated in FIG.
  • FIG. 5 is a diagram (2) for explaining the acquisition unit illustrated in FIG.
  • FIG. 6A is a diagram (1) for explaining the image generation unit according to the first embodiment.
  • FIG. 6B is a diagram (2) for explaining the image generation unit according to the first embodiment.
  • FIG. 7 is a diagram (3) for explaining the image generation unit according to the first embodiment.
  • FIG. 8 is a diagram (4) for explaining the image generation unit according to the first embodiment.
  • FIG. 9 is a diagram (5) for explaining the image generation unit according to the first embodiment.
  • FIG. 10 is a diagram (6) for explaining the image generation unit according to the first embodiment.
  • FIG. 11 is a flowchart illustrating an example of processing performed by the ultrasonic diagnostic apparatus according to the first embodiment.
  • FIG. 12A is a diagram (1) for explaining the modification according to the first embodiment.
  • FIG. 12B is a diagram (2) for explaining the modified example according to the first embodiment.
  • FIG. 13A is a diagram (3) for explaining the modification according to the first embodiment.
  • FIG. 13B is a diagram (4) for explaining the modification according to the first embodiment.
  • FIG. 14 is a diagram for explaining the second embodiment.
  • FIG. 15A is a diagram (1) for explaining the third embodiment.
  • FIG. 15B is a diagram (2) for explaining the third embodiment.
  • FIG. 16 is a diagram for explaining the fourth embodiment.
  • FIG. 17 is a diagram (1) for explaining the fifth embodiment.
  • FIG. 18 is a diagram (2) for explaining the
  • FIG. 1 is a diagram illustrating a configuration example of an ultrasonic diagnostic apparatus according to the first embodiment.
  • the ultrasonic diagnostic apparatus according to the first embodiment includes an ultrasonic probe 1, a monitor 2, an input device 3, and an apparatus main body 10.
  • the ultrasonic probe 1 is detachably connected to the apparatus main body 10.
  • the ultrasonic probe 1 includes, for example, a plurality of piezoelectric vibrators, and the plurality of piezoelectric vibrators generate ultrasonic waves based on a drive signal supplied from a transmission / reception unit 11 included in the apparatus main body 10 described later.
  • the ultrasonic probe 1 receives a reflected wave from the subject P and converts it into an electrical signal.
  • the ultrasonic probe 1 includes a matching layer provided on the piezoelectric vibrator, a backing material that prevents propagation of ultrasonic waves from the piezoelectric vibrator to the rear, and the like.
  • the transmitted ultrasonic waves are transmitted from the ultrasonic probe 1 to the subject P
  • the transmitted ultrasonic waves are reflected one after another at the discontinuous surface of the acoustic impedance in the body tissue of the subject P
  • the ultrasonic probe is used as a reflected wave signal. 1 is received by a plurality of piezoelectric vibrators.
  • the amplitude of the received reflected wave signal depends on the difference in acoustic impedance at the discontinuous surface where the ultrasonic wave is reflected.
  • the reflected wave signal when the transmitted ultrasonic pulse is reflected by the moving blood flow or the surface of the heart wall depends on the velocity component of the moving object in the ultrasonic transmission direction due to the Doppler effect. And undergoes a frequency shift.
  • the apparatus main body 10 is connected as an ultrasonic probe 1 for two-dimensional scanning to a 1D array probe in which a plurality of piezoelectric vibrators are arranged in a row.
  • the apparatus main body 10 is connected to a mechanical 4D probe or a 2D array probe as the ultrasonic probe 1 for three-dimensional scanning.
  • the mechanical 4D probe is capable of two-dimensional scanning using a plurality of piezoelectric vibrators arranged in a line like a 1D array probe, and swings the plurality of piezoelectric vibrators at a predetermined angle (swing angle). By doing so, three-dimensional scanning is possible.
  • the 2D array probe can be three-dimensionally scanned by a plurality of piezoelectric vibrators arranged in a matrix and can be two-dimensionally scanned by focusing and transmitting ultrasonic waves.
  • the first embodiment is applicable regardless of whether the subject P is two-dimensionally scanned or three-dimensionally scanned by the ultrasonic probe 1.
  • the subject P is three-dimensionally scanned by the ultrasonic probe 1 will be described.
  • the puncture adapter 4 in order to perform a radiofrequency ablation (RFA: Radio Frequency Ablation) treatment, the puncture adapter 4 is attached to the ultrasonic probe 1 as shown in FIG.
  • the puncture adapter 4 is attached with a puncture needle 5 that is an electrode needle that generates radio waves.
  • the doctor inserts the puncture needle 5 attached to the puncture adapter 4 to the treatment site of the subject P while referring to the ultrasonic image data displayed on the monitor 2 by ultrasonic transmission / reception performed by the ultrasonic probe 1.
  • the first embodiment is applicable even when the puncture with the puncture needle 5 is performed freehand without using the puncture adapter 4.
  • the puncture needle 5 is connected to a treatment device that controls the output of the radio wave generated by the puncture needle 5.
  • This treatment device can monitor the temperature of the puncture needle 5, the output of radio waves, and the impedance of the ablation area, and the doctor operates the treatment device to advance RF treatment using the puncture needle 5.
  • the puncture needle 5 which concerns on this embodiment has the position sensor 51.
  • FIG. 1 the position sensor 51 is built in the base (for example, a bracket part) of the puncture needle 5.
  • the position sensor 51 may be incorporated in the distal end portion of the puncture needle 5.
  • the position sensor 51 is a magnetic sensor.
  • the transmitter 6 shown in FIG. 1 is a device that is arranged at an arbitrary position and forms a magnetic field toward the outside centering on its own device. In the present embodiment, the transmitter 6 is installed in the vicinity of the apparatus main body 10. In the present embodiment, the transmitter 6 may be attached to the apparatus main body 10.
  • the position sensor 51 detects a three-dimensional magnetic field formed by the transmitter 6.
  • the position sensor 51 transmits information on the detected magnetic field to the apparatus main body 10.
  • the position sensor 51 transmits information on the detected magnetic field to the apparatus body 10 by wireless communication or wired communication.
  • the position sensor 51 built in the base of the puncture needle 5 has a size along the direction from the base of the puncture needle 5 to the tip.
  • the magnetic field information detected by the position sensor 51 is information that can detect the base position of the puncture needle 5 and the three-dimensional direction of the puncture needle 5. Accordingly, assuming that the insertion path of the puncture needle 5 is a straight line and the length of the puncture needle 5 is known, the magnetic field information detected by the position sensor 51 detects the position of the needle tip of the puncture needle 5. It becomes possible information.
  • the input device 3 includes a mouse, a keyboard, a button, a panel switch, a touch command screen, a foot switch, a trackball, and the like, accepts various setting requests from an operator of the ultrasonic diagnostic apparatus, and accepts it to the apparatus body 10. Transfer various setting requests. For example, the input device 3 receives a setting of an area for performing RFA treatment from the operator.
  • the monitor 2 displays a GUI (Graphical User Interface) for the operator of the ultrasonic diagnostic apparatus to input various setting requests using the input device 3 or displays an ultrasonic image generated in the apparatus main body 10.
  • GUI Graphic User Interface
  • the apparatus main body 10 is an apparatus that generates ultrasonic image data based on the reflected wave received by the ultrasonic probe 1, and as shown in FIG. 1, a transmission / reception unit 11, a B-mode processing unit 12, and a Doppler processing unit. 13, an image generation unit 14, an image memory 15, a detection unit 16, an acquisition unit 17, an internal storage unit 18, and a control unit 19.
  • the transmission / reception unit 11 includes a trigger generation circuit, a delay circuit, a pulser circuit, and the like, and supplies a drive signal to the ultrasonic probe 1.
  • the pulsar circuit repeatedly generates rate pulses for forming transmission ultrasonic waves at a predetermined rate frequency.
  • the delay circuit also sets the delay time for each piezoelectric vibrator necessary for determining the transmission directivity by focusing the ultrasonic wave generated from the ultrasonic probe 1 into a beam shape, and for each rate pulse generated by the pulser circuit.
  • the trigger generation circuit applies a drive signal (drive pulse) to the ultrasonic probe 1 at a timing based on the rate pulse.
  • the delay circuit arbitrarily adjusts the transmission direction from the piezoelectric vibrator surface by changing the delay time given to each rate pulse.
  • the drive pulse is transmitted from the pulsar circuit to the piezoelectric vibrator in the ultrasonic probe 1 via the cable, and then converted from an electric signal to mechanical vibration in the piezoelectric vibrator.
  • This mechanical vibration is transmitted as an ultrasonic wave inside the living body.
  • the ultrasonic waves having different transmission delay times for each piezoelectric vibrator are converged and propagated in a predetermined direction. That is, the delay circuit arbitrarily adjusts the transmission direction from the piezoelectric vibrator surface by changing the transmission delay time given to each rate pulse.
  • the transmission / reception unit 11 has a function capable of instantaneously changing the transmission frequency, the transmission drive voltage, and the like in order to execute a predetermined scan sequence based on an instruction from the control unit 19 described later.
  • the change of the transmission drive voltage is realized by a linear amplifier type transmission circuit capable of instantaneously switching the value or a mechanism for electrically switching a plurality of power supply units.
  • the transmission / reception unit 11 includes an amplifier circuit, an A / D converter, an adder, and the like, and performs various processes on the reflected wave signal received by the ultrasonic probe 1 to generate reflected wave data.
  • the amplifier circuit amplifies the reflected wave signal for each channel and performs gain correction processing.
  • the adder performs reflected wave signal addition processing based on the given delay time to generate reflected wave data. By the addition processing of the adder, the reflection component from the direction corresponding to the reception directivity of the reflected wave signal is emphasized.
  • the transmission / reception unit 11 controls transmission directivity and reception directivity in transmission / reception of ultrasonic waves.
  • a comprehensive beam for ultrasonic transmission / reception is formed by the reception directivity and transmission directivity controlled by the transmission / reception unit 11.
  • the transmission / reception unit 11 transmits a two-dimensional ultrasonic beam from the ultrasonic probe 1 when the subject P is two-dimensionally scanned. Then, the transmission / reception unit 11 generates two-dimensional reflected wave data from the two-dimensional reflected wave signal received by the ultrasonic probe 1.
  • the transmission / reception unit 11 transmits a three-dimensional ultrasonic beam from the ultrasonic probe 1.
  • the transmission / reception unit 11 generates three-dimensional reflected wave data from the three-dimensional reflected wave signal received by the ultrasonic probe 1.
  • the form of the output signal from the transmitter / receiver 11 can be selected from various forms such as a signal including phase information called an RF (Radio Frequency) signal or amplitude information after envelope detection processing. Is possible.
  • the B-mode processing unit 12 receives the reflected wave data from the transmission / reception unit 11 and performs logarithmic amplification, envelope detection processing, etc. on the received reflected wave data, and data in which the signal intensity is expressed by brightness. (B-mode data) is generated.
  • the Doppler processing unit 13 receives the reflected wave data from the transmission / reception unit 11, performs frequency analysis on velocity information from the received reflected wave data, extracts blood flow, tissue, and contrast agent echo components due to the Doppler effect, and average velocity, variance Then, data (Doppler data) obtained by extracting moving body information such as power with respect to multiple points is generated. Note that data generated by the B-mode processing unit 12 and the Doppler processing unit 13 is also referred to as raw data.
  • the B-mode processing unit 12 can change the frequency band to be visualized by changing the detection frequency by filtering.
  • the ultrasonic diagnostic apparatus can execute contrast harmonic imaging (CHI: Contrast Harmonic Imaging). That is, the B-mode processing unit 12 performs reflected wave data (harmonic data or separation) using a contrast agent (microbubbles, bubbles) as a reflection source by filtering from the reflected wave data of the subject P into which the contrast agent has been injected. Frequency data) and reflected wave data (fundamental wave data) using the tissue in the subject P as a reflection source can be separated.
  • CHI Contrast Harmonic Imaging
  • the B-mode processing unit 12 uses B-mode data or fundamental wave data for generating contrast image data using second harmonic data from the reflected wave data of the subject P into which the contrast agent has been injected.
  • B-mode data for generating the tissue image data can be generated.
  • harmonic data or frequency-divided data is separated from the reflected wave data of the subject P.
  • B-mode data for generating tissue image data from which noise components have been removed can be generated.
  • the B-mode processing unit 12 can extract harmonic components by a method different from the method using the filter processing described above.
  • harmonic imaging an imaging method called an AMPM method that combines an amplitude modulation (AM) method, a phase modulation (PM) method, an AM method, and a PM method is performed.
  • the transmission / reception unit 11 generates and outputs a plurality of reflected wave data (reception signals) on each scanning line.
  • the B-mode processing unit 13 extracts harmonic components by performing addition / subtraction processing on the plurality of reflected wave data (reception signals) of each scanning line in accordance with the modulation method. Then, the B-mode processing unit 13 performs envelope detection processing or the like on the reflected wave data (received signal) of the harmonic component, and generates B-mode data.
  • the transmission / reception unit 11 scans each scan with ultrasonic waves having the same amplitude with the phase polarity reversed, for example ( ⁇ 1, 1), by the scan sequence set by the control unit 19. Send twice on the line. Then, the transmission / reception unit 11 generates a reception signal by transmission of “ ⁇ 1” and a reception signal by transmission of “1”, and the B-mode processing unit 12 adds these two reception signals. Thereby, the fundamental wave component is removed, and a signal in which the second harmonic component mainly remains is generated.
  • the B-mode processing unit 12 performs envelope detection processing or the like on the signal to generate THI B-mode data or CHI B-mode data.
  • the B-mode processing unit 12 generates B-mode data for generating tissue image data by filtering the received signal by transmission of “1”. be able to.
  • the B-mode processing unit 12 and the Doppler processing unit 13 illustrated in FIG. 1 can process both two-dimensional reflected wave data and three-dimensional reflected wave data. That is, the B-mode processing unit 12 generates two-dimensional B-mode data from the two-dimensional reflected wave data, and generates three-dimensional B-mode data from the three-dimensional reflected wave data. The Doppler processing unit 13 generates two-dimensional Doppler data from the two-dimensional reflected wave data, and generates three-dimensional Doppler data from the three-dimensional reflected wave data.
  • the image generation unit 14 generates ultrasonic image data from the data generated by the B mode processing unit 12 and the Doppler processing unit 13. That is, the image generation unit 14 generates two-dimensional B-mode image data in which the intensity of the reflected wave is expressed by luminance from the two-dimensional B-mode data generated by the B-mode processing unit 12. Further, the image generation unit 14 generates two-dimensional Doppler image data representing moving body information from the two-dimensional Doppler data generated by the Doppler processing unit 13.
  • the two-dimensional Doppler image data is velocity image data, distributed image data, power image data, or image data obtained by combining these.
  • the image generation unit 14 generally converts (scan converts) a scanning line signal sequence of ultrasonic scanning into a scanning line signal sequence of a video format represented by a television or the like, and displays ultrasonic waves for display. Generate image data. Specifically, the image generation unit 14 generates ultrasonic image data for display by performing coordinate conversion in accordance with the ultrasonic scanning mode of the ultrasonic probe 1. In addition to the scan conversion, the image generation unit 14 performs various image processing, such as image processing (smoothing processing) for regenerating an average luminance image using a plurality of image frames after scan conversion, Image processing (edge enhancement processing) using a differential filter is performed in the image. Further, the image generation unit 14 synthesizes incidental information (character information of various parameters, scales, body marks, etc.) with the ultrasonic image data.
  • image processing smoothing processing
  • Image processing edge enhancement processing
  • the B-mode data and the Doppler data are ultrasonic image data before the scan conversion process
  • the data generated by the image generation unit 14 is ultrasonic image data for display after the scan conversion process.
  • the B-mode data and Doppler data are also called raw data.
  • the image generation unit 14 generates “two-dimensional B-mode image” that is two-dimensional ultrasonic image data for display from “two-dimensional B-mode data and two-dimensional Doppler data” that is two-dimensional ultrasonic image data before scan conversion processing. Data and 2D Doppler image data ".
  • CHI which is a contrast echo method
  • the image generation unit 14 generates “two-dimensional contrast image data” as “two-dimensional B-mode image data”.
  • the image generation unit 14 generates “two-dimensional tissue image data” as “two-dimensional B-mode image data” as necessary.
  • the image generation unit 14 generates three-dimensional B-mode image data by performing coordinate conversion on the three-dimensional B-mode data generated by the B-mode processing unit 12. Further, the image generation unit 14 generates three-dimensional Doppler image data by performing coordinate conversion on the three-dimensional Doppler data generated by the Doppler processing unit 13.
  • the image generation unit 14 generates “three-dimensional B-mode image data or three-dimensional Doppler image data” as “ultrasound volume data”. For example, in CHI, the image generation unit 14 generates “contrast volume data” as “ultrasound volume data”. In CHI, the image generation unit 14 generates “contrast volume data” and “tissue volume data” as “ultrasound volume data” as necessary.
  • the image generation unit 14 performs a rendering process on the volume data in order to generate various two-dimensional image data for displaying the volume data on the monitor 2.
  • the rendering process performed by the image generation unit 14 includes, for example, a process of generating cross-sectional image data (MPR image data) from volume data by performing a cross-section reconstruction method (MPR: Multi Planer Reconstruction).
  • MPR image data cross-sectional image data
  • MPR Multi Planer Reconstruction
  • projection image data such as VR image data and MIP image data is generated by volume rendering (VR) processing, MIP (Maximum Intensity Projection) processing, or the like. There is a process to do.
  • Such projection image data is two-dimensional image data reflecting three-dimensional information.
  • the image memory 15 is a memory for storing image data for display generated by the image generation unit 14.
  • the image data stored in the image memory 15 can be called by an operator after diagnosis, for example.
  • the image memory 15 can also store data generated by the B-mode processing unit 12 and the Doppler processing unit 13.
  • the B-mode data and Doppler data stored in the image memory 15 can be called by an operator after diagnosis, for example, and become ultrasonic image data for display via the image generation unit 14.
  • the image memory 15 can also store data output from the transmission / reception unit 11.
  • the detection unit 16 detects the position of the needle tip of the puncture needle 5 using the position sensor 51 of the puncture needle 5. That is, the detection unit 16 detects the position of the needle tip of the puncture needle 5 by using information on the relative positional relationship between the root of the puncture needle 5 to which the position sensor 51 is attached and the needle tip. Specifically, the detection unit 16 receives magnetic field information detected by the position sensor 51 built in the base of the puncture needle 5, and based on the received information, determines the three-dimensional position of the base of the puncture needle 5. Then, the three-dimensional direction of the puncture needle 5 is detected. For example, the detection unit 16 detects the three-dimensional position of the base of the puncture needle 5 in the space with the transmitter 6 as the origin.
  • the detection unit 16 detects the root three-dimensional coordinates in the real space. Then, the detection unit 16 detects the three-dimensional position of the needle tip of the puncture needle 5 in the space with the transmitter 6 as the origin from the three-dimensional direction of the puncture needle 5 and the length of the puncture needle 5. That is, the detection unit 16 detects the three-dimensional coordinates of the needle tip in the real space. The detection unit 16 sequentially detects the position of the needle tip of the puncture needle 5 in the real space, and detects the locus of the needle tip moving in the three-dimensional space, so that the insertion path of the puncture needle 5 in the real space is detected. The position can also be detected.
  • the detection unit 15 detects the position of the root from the information detected by the position sensor 51, the detected position of the root, the direction of the puncture needle 5 obtained from the information of the puncture adapter 4, and the known puncture needle 5 It is also possible to detect the position of the needle tip using the length of. Even in this case, the detection unit 15 can also detect the position of the insertion path of the puncture needle 5 in the real space by detecting the locus of the needle tip that moves in the three-dimensional space.
  • the position where the position sensor 51 is installed may be an arbitrary position on the puncture needle 5.
  • the position sensor 51 may be installed at a plurality of positions in the puncture needle 5.
  • the position sensor 51 may be incorporated in the needle tip of the puncture needle 5 as described above.
  • the detection unit 16 receives information on the magnetic field detected by the position sensor 51 built in the needle tip of the puncture needle 5 and determines the three-dimensional position of the needle tip of the puncture needle 5 based on the received information. To detect. Thereby, the detection part 16 detects the three-dimensional coordinate of the needle point in real space.
  • the detection unit 16 sequentially detects the position of the needle tip of the puncture needle 5 in the real space, and detects the locus of the needle tip moving in the three-dimensional space, so that the insertion path of the puncture needle 5 in the real space is detected. The position can also be detected.
  • the position sensors may be installed on the puncture needle 5 and the puncture adapter 4, respectively.
  • the acquisition unit 17 acquires the position of the boundary of the region of interest set by the first ultrasonic image data of the subject P.
  • the acquisition unit 17 is based on the position of the needle tip detected by the detection unit 16 and the boundary of the region of interest set in the first ultrasonic image data of the subject P into which the puncture needle 5 has been inserted. Get the position of.
  • the first ultrasonic image data is ultrasonic image data as tissue image data generated in the normal B mode.
  • the first ultrasonic image data is first ultrasonic volume data generated by three-dimensionally scanning the subject P, and the first ultrasonic volume data is generated in the normal B mode.
  • Organization volume data is first ultrasonic volume data generated by three-dimensionally scanning the subject P.
  • the region of interest is a treatment plan region for performing RFA treatment, and is set three-dimensionally in the first ultrasonic volume data.
  • the acquisition unit 17 acquires the three-dimensional position of the region of interest based on the three-dimensional position of the needle tip detected by the detection unit 16. The processing performed by the acquisition unit 17 based on the detection result of the detection unit 16 will be described in detail later.
  • the internal storage unit 18 stores various data such as a control program for performing ultrasonic transmission / reception, image processing and display processing, diagnostic information (for example, patient ID, doctor's findings, etc.), diagnostic protocol, and various body marks. To do.
  • the internal storage unit 18 is also used for storing image data stored in the image memory 15 as necessary.
  • the data stored in the internal storage unit 18 can be transferred to an external peripheral device via an interface circuit (not shown).
  • the internal storage unit 18 stores the angle at which the puncture needle 5 is attached to the puncture adapter 4 as the insertion angle of the puncture needle 5. For example, when the puncture adapter 4 is attached, the internal storage unit 18 stores the attachment angle “A” of the puncture adapter 4 as the insertion angle “A” of the puncture needle 5. Furthermore, the internal storage unit 18 according to the first embodiment stores a threshold value and setting information. The threshold value and setting information stored in the internal storage unit 18 will be described in detail later.
  • the control unit 19 controls the entire processing in the ultrasonic diagnostic apparatus. Specifically, the control unit 19 is based on various setting requests input from the operator via the input device 3 and various control programs and various data read from the internal storage unit 18. It controls the processing of the processing unit 12, Doppler processing unit 13, image generation unit 14, detection unit 16, and acquisition unit 17. Further, the control unit 19 controls the monitor 2 to display ultrasonic image data and the like stored in the image memory 15.
  • the ultrasonic diagnostic apparatus according to the first embodiment has a detection unit described below in order to quickly and easily perform reliable treatment effect determination of radiofrequency ablation using the puncture needle 5.
  • the processing of the acquisition unit 17 based on the 16 detection results and the processing of the image generation unit 14 based on the processing result of the acquisition unit 17 are performed.
  • FIG. 2 is a flowchart showing an example of a workflow of RFA treatment performed in the first embodiment.
  • step S1 the doctor performs puncture for RFA treatment under the normal B-mode ultrasound guide (step S1).
  • step S1 the image generation unit 14 generates first ultrasonic volume data by performing three-dimensional scanning in the normal B mode. Then, under the control of the control unit 19, the image generation unit 14, for example, from the first ultrasonic volume data, the cross-sectional image data of the normal cross section (A surface) and the cross-sectional image data of the cross section in the depth direction including the puncture needle 5. Is generated.
  • the doctor inserts the puncture needle 5 up to the treatment site of the subject P while referring to the two cross-sectional image data updated and displayed on the monitor 2 in real time under the control of the control unit 19.
  • control unit 19 determines the cross section including the puncture needle 5 in the first ultrasonic volume data, and the three-dimensional relationship between the insertion angle “A” stored in the internal storage unit 18 and the ultrasonic probe 1 and the puncture adapter 4. It can be determined from the relative positional relationship.
  • the cross-section in the depth direction including the puncture needle 5 must be designated by a doctor referring to the ultrasonic image data on the A plane as a high-brightness straight line. Can be determined.
  • the doctor moves the ultrasonic probe 1 on the body surface of the subject P, and a treatment site such as a tumor is depicted as cross-sectional image data of the A plane, and the puncture needle 5 is inserted into the A plane.
  • the position of the ultrasonic probe 1 is adjusted so that the path is included.
  • the doctor abuts the tip of the puncture needle 5 attached to the puncture adapter 4 against the body surface of the subject P in a state where the ultrasonic probe 1 is fixed at the adjusted position.
  • the doctor presses a confirmation button included in the input device 3, for example.
  • the detection unit 16 notifies the acquisition unit 17 of the initial position of the position of the needle tip of the puncture needle 5 detected from the information received from the position sensor 51 when the confirm button is pressed.
  • the acquisition unit 17 acquires the shape and size of the three-dimensional scanning region and the three-dimensional relative positional relationship between the ultrasonic probe 1 and the puncture adapter 4 from the control unit 19. Then, the acquisition unit 17 determines from the information acquired from the control unit 19 that the initial position detected by the detection unit 16 is “which position” with respect to the space of the first ultrasonic volume data (hereinafter referred to as volume space). Gets corresponding to. As a result, the acquisition unit 17 associates the position of the needle tip in the real space with the position of the needle tip in the volume space.
  • the initial position in the volume space is, for example, in a state where the puncture needle 5 is inserted into the subject P up to the scanning region.
  • the doctor who referred to the sound wave image data may be acquired by designating a high-brightness straight line tip.
  • the initial position is set by, for example, contacting the tip and root of the puncture needle 5 with both end points of the transducer array surface of the ultrasonic probe 1 that is in contact with the body surface of the subject P. Also good. Also by this, the acquisition unit 17 can associate the position in the real space with the position in the volume space.
  • the detection unit 16 detects the position and movement path (insertion path) of the needle tip in the real space of the puncture needle 5 and notifies the acquisition unit 17 To do.
  • the acquisition unit 17 converts the needle tip position and insertion path in the real space detected by the detection unit 16 into the needle tip position and insertion path in the volume space in real time from the correspondence between the real space and the volume space.
  • the image generation unit 14 causes the “cross-sectional image data of the A surface including the puncture needle 5” and “cross-sectional image of the A surface” in step S 1.
  • Cross section image data of a cross section orthogonal to the data and including the insertion path of the puncture needle 5 "is generated.
  • FIG. 3 is a diagram for explaining the detection unit shown in FIG. 1
  • FIGS. 4 and 5 are diagrams for explaining the acquisition unit shown in FIG.
  • the detection unit 16 detects the three-dimensional coordinates in the real space of the needle tip A of the puncture needle 5 inserted to the approximate center of the treatment site.
  • the detection part 16 detects the three-dimensional coordinate of the insertion path
  • the acquisition unit 17 uses the point A ′ corresponding to the needle tip A in the first ultrasonic volume data at the time when the puncture needle 5 is inserted to the approximate center of the treatment site. And the position of the line L ′ corresponding to the insertion path L are acquired. Then, under the control of the acquisition unit 17, the image generation unit 14 generates cross-sectional image data of the A surface from the first ultrasonic volume data as shown in the upper diagram of FIG. Image data in which A ′ and line L ′ are superimposed is generated. The image data shown in the upper diagram of FIG. 4 is displayed on the monitor 2. The doctor sets a region of interest in the image data shown in the upper diagram of FIG. For example, as shown in the lower diagram of FIG. 4, the doctor sets a boundary M ′ of the region of interest that includes the tumor T as the treatment site and secures a margin of about 5 mm in the vicinity of the point A ′.
  • the shape of the boundary M ′ can be estimated from the type of the puncture needle 5.
  • the shape (three-dimensional shape) of the boundary M ′ is an ellipsoid or a sphere depending on whether the puncture needle 5 is a deployment type or a single needle type. That is, the shape template of the region of interest is determined according to the type of puncture needle 5.
  • the internal storage unit 18 stores templates having various shapes according to the type of the puncture needle 5. The doctor reads a template having a shape corresponding to the type of puncture needle 5 from the internal storage unit 18 and displays it on the image data.
  • the doctor places the center of the template at the point A ′, and further performs template movement adjustment, enlargement / reduction adjustment, etc. so that the border of the template includes the tumor T and a margin of about 5 mm is secured. .
  • the axis of the template is set along line L '.
  • the acquisition unit 17 acquires the position of the boundary M in the real space from the relative positional relationship of the boundary M ′ with respect to the needle tip A ′ in the volume space, as illustrated in FIG. That is, as illustrated in FIG. 5, the acquisition unit 17 acquires the position of the boundary M of the region of interest in the real space together with the position of the needle tip A and the position of the insertion path L in the real space.
  • the acquisition unit 17 may automatically set the boundary M ′ of the region of interest for the position of the tumor T designated by the doctor. Or this embodiment may be a case where the acquisition part 17 which has a function which detects the tumor T automatically based on brightness
  • the doctor performs RFA treatment on the region of interest set in Step 2 (Step S3). Specifically, the doctor proceeds with the ablation treatment while monitoring the needle tip temperature of the puncture needle 5, the output of the radio wave, the impedance, and the like with a treatment device (not shown).
  • step S 4 determines the RFA treatment effect by contrast imaging (step S4).
  • step S ⁇ b> 4 second ultrasonic image data using the contrast image data of the subject P collected after the treatment using the puncture needle 5 is generated by the image generation unit 14 and displayed on the monitor 2.
  • a predetermined time for example, about 5 minutes
  • the doctor administers a contrast medium and generates from the contrast image data whether there is no blood flow in the region of interest. Confirmation is performed based on the second ultrasonic image data.
  • the predetermined time is about 5 minutes
  • the needle tip position of the puncture needle 5 and the contact position of the ultrasonic probe 1 are the same positions as when the first ultrasonic volume data is generated.
  • the second ultrasonic image data will be described later in detail.
  • the doctor refers to the second ultrasonic image data and determines whether or not the cautery range is sufficient (step S5). That is, the physician determines whether additional RFA treatment is necessary due to insufficient cautery range or residual tumor blood vessels. Here, if the ablation range is sufficient (Yes at Step S5), the doctor ends the RFA treatment.
  • Step S6 the doctor refers to the second ultrasonic image data to determine whether or not the position of the puncture needle 5 needs to be changed.
  • the doctor returns to Step S3 to perform additional RFA treatment.
  • the doctor returns to step S1 and performs puncture to move the position of the puncture needle 5 in order to perform additional RFA treatment. Then, the processing after step S2 is performed.
  • the image generation unit 14 uses the luminance value before and after contrasting in the pre-contrast image data and the post-contrast image data of the subject P collected after the treatment using the puncture needle 5.
  • Second ultrasonic image data is generated by assigning a pixel value corresponding to the distance between the pixel and the region of interest to a pixel whose change is equal to or greater than a threshold value.
  • image data before contrast and image data after contrast will be referred to as “contrast image data”.
  • the internal storage unit 16 stores “threshold value for luminance value change” and “setting information in which different pixel values are set according to the distance from the boundary”. To do. Specifically, the internal storage unit 18 stores “color information in which a different color is set according to the distance from the boundary” as the setting information. More specifically, in the internal storage unit 18 according to the first embodiment, a different color is set in the first color tone according to the distance from the boundary inside the boundary, and the first color is set outside the boundary. Color information in which a different color is set according to the distance from the boundary in a second color tone different from the color tone is stored as the setting information. Further, the internal storage unit 18 according to the first embodiment stores a uniform value (TH) as a threshold value for a change in luminance value. The threshold value (TH) is a threshold value used for determining the presence or absence of a contrast agent inflow.
  • the image generation unit 14 generates second ultrasonic image data based on the setting information.
  • the image generation unit 14 generates second ultrasonic image data based on the color information. That is, the image generation unit 14 considers the pixel and the interest in the contrast image data of the subject P collected after the treatment using the puncture needle 5 for a pixel whose luminance value change before and after contrast is equal to or greater than the threshold (TH). Second ultrasonic image data in which a color corresponding to the distance from the boundary of the region is assigned based on the color information is generated.
  • “contrast image data that is image data before contrast and image data after contrast” is contrast volume data generated by three-dimensionally scanning the subject P.
  • the image generation unit 14 sets the distance between the voxel and the boundary of the region of interest to the voxel in which the change in luminance value before and after the contrast is greater than or equal to the threshold (TH) in the contrast volume data.
  • Second ultrasonic volume data in which a corresponding voxel value is assigned based on the setting information is generated as second ultrasonic image data. Since the setting information is the color information described above, the image generation unit 14 assigns a color corresponding to the distance between the voxel and the region of interest based on the color information to the voxel detected based on the threshold value. Second ultrasonic volume data is generated as second ultrasonic image data.
  • the contrast volume data is volume data generated by three-dimensional scanning with the ultrasound probe 1 at the same position as when the first ultrasound volume data is generated. That is, each voxel of the contrast volume data is expressed by three-dimensional coordinates on the same volume space as each voxel of the first ultrasonic volume data.
  • the acquisition unit 17 can acquire the distance between each voxel constituting the contrast volume data and the boundary M ′, the distance between the position of each voxel constituting the contrast volume data and the boundary M in the real space. Can be obtained. Further, since the acquisition unit 17 can acquire the relative positional relationship between each voxel constituting the contrast volume data and the boundary M ′, the acquisition unit 17 can determine the inside and the outside of the region of interest in the volume space. . Furthermore, the acquisition unit 17 can determine whether the position of each voxel constituting the contrast volume data in the real space is inside or outside the region of interest. Therefore, based on the control of the acquisition unit 17, the image generation unit 14 generates second ultrasonic image data (second ultrasonic volume data).
  • 6A, 6B, and FIGS. 7 to 10 are diagrams for explaining the image generation unit according to the first embodiment.
  • the color information stored in the internal storage unit 18 is associated with different colors according to the distance “d” from the boundary M of the region of interest, as shown in FIG. 6A.
  • the hue (R1, R2, R3) in which the lightness of the first hue is changed is assigned according to “absolute value of d”, and “d> In “0”
  • a color tone (B1, B2) in which the brightness of the second hue is changed is assigned according to “absolute value of d”.
  • the first hue is red
  • the second hue is blue.
  • the second hue is grayscale. Since the contrast agent inflow into the region of interest means the remaining of the tumor, it is preferable that the first hue is a hue that prompts the doctor to pay attention like the red system.
  • the color of B2 is white in the drawing, but actually, for example, it is a lighter blue than B1.
  • spherical boundaries M1 and M2 are set in the region of interest according to the distance from the boundary M of the region of interest.
  • a spherical boundary M3 is set outside the region.
  • the acquisition unit 17 obtains the luminance value of each voxel constituting volume data before contrast (for example, ultrasound volume data acquired by the contrast echo method at the time when the region of interest is set) as the brightness value “before contrast”. Acquired as “I0”. Then, the acquisition unit 17 acquires the luminance value “I” of each voxel constituting the contrast volume data that is the image data after contrast generated by the contrast echo method. That is, since the first ultrasonic volume data is data acquired by the B mode, it is not suitable as a comparison target of contrast volume data generated by the contrast echo method.
  • ultrasonic volume data is acquired by contrast echo method, and this volume data is used as image data before contrast, and the contrast agent is contrasted.
  • the contrast volume data generated by the echo method is preferably compared.
  • the acquisition unit 17 calculates a luminance value change “I-I0” for the same voxel, and monitors the calculated value. For example, the acquisition unit 17 monitors a change in luminance value for all voxels.
  • the acquisition unit 17 converts the position of the voxel where “I ⁇ I0 ⁇ TH” into a real space position, and acquires the distance and the positional relationship between the position of the voxel in the real space and the boundary M. Then, the acquisition unit 17 acquires the color corresponding to the acquired distance and positional relationship from the color information illustrated in FIG. 6A and controls the image generation unit 14 to generate volume data to which the acquired color is assigned. To do.
  • the image generation unit 14 assigns the color tone “R1” to the voxel. Further, for example, as shown in FIG. 6B, when the real space position of the voxel where “I ⁇ I0 ⁇ TH” is between the boundary M1 and the boundary M2, the image generation unit 14 sets the color tone “ R2 "is assigned. Further, for example, as shown in FIG. 6B, when the real space position of the voxel satisfying “I ⁇ I0 ⁇ TH” is between the boundary M2 and the boundary M, the image generation unit 14 sets the color tone “ R3 "is assigned.
  • the image generation unit 14 sets the color tone “ B1 "is assigned. Further, for example, as shown in FIG. 6B, when the real space position of the voxel where “I ⁇ I0 ⁇ TH” is outside the boundary M3, the image generation unit 14 assigns the color tone “B2” to the voxel. .
  • the image generation unit 14 generates the second ultrasonic volume data illustrated in FIG.
  • the image generation unit 14 generates second ultrasonic volume data on which the boundary M ′ is superimposed.
  • the second ultrasonic volume data shown in FIG. 7 is two-dimensional image data in the drawing, but is actually three-dimensional image data. Note that, for example, a value that is determined empirically by a doctor or the like is set as the threshold value. In the above description, the case where a value corresponding to a luminance value is set as the threshold for the luminance value change has been described.
  • the present embodiment may be a case where a value indicating the degree of change in the brightness value, such as “5 dB”, is set as the threshold for the change in the brightness value.
  • the acquisition unit 17 converts de “I-I0” into a sibel value based on a gamma curve for outputting an image to the monitor 2, and performs a comparison process between the converted decibel value and the threshold value.
  • contrast volume data is generated in time series.
  • the image generation unit 14 may generate the second ultrasound volume data every time the contrast volume data is generated under the control of the acquisition unit 17, or in the total contrast volume data generated during the contrast period,
  • the second ultrasonic volume data may be generated using all voxels whose luminance value change is equal to or greater than a threshold value.
  • this embodiment may be a case where the second ultrasonic volume data is generated in time series, or a holding type in which the positions of all voxels that are equal to or greater than the threshold value during the contrast period are held.
  • the second ultrasonic volume data may be generated.
  • the present embodiment is a case where the contrast period is divided into a plurality of periods, and the holding type second ultrasonic volume data in which the positions of all the voxels that are equal to or larger than the threshold value in each divided period are held is generated. Also good.
  • the control unit 19 causes the monitor 2 to display the second ultrasonic image data.
  • the control unit 19 since the second ultrasonic image data is generated as volume data (second ultrasonic volume data), the control unit 19 generates the cross-sectional image data or the projection image generated from the second ultrasonic volume data. At least one of the data is displayed on the monitor 2.
  • the image generation unit 14 cuts the second ultrasonic volume data illustrated in FIG. 7 at a plurality of A planes along the depth direction under the control of the control unit 19. As a result, the image generation unit 14 generates a plurality of A-plane MPR image data as shown in FIG.
  • the monitor 2 displays a plurality of MPR image data illustrated in FIG. If tumor blood vessels are not spatially uniform or have a cooling effect due to relatively large blood vessels, cauterization may not be performed as planned. For this reason, by displaying a plurality of cross-sections illustrated in FIG. 8, the doctor can determine the effect on the multi-sections.
  • the control unit 19 displays the second ultrasonic image data limited to the region of interest.
  • the control unit 19 displays the position of the puncture needle 5 superimposed on the second ultrasonic image data limited to the region of interest.
  • the image generation unit 14 extracts volume data in the region of interest from the second ultrasonic volume data under the control of the control unit 19. Then, projection image data obtained by projecting the extracted volume data in a predetermined direction is generated.
  • the projection image data is VR image data or MIP image data.
  • the image generation unit 14 generates MIP image data illustrated in FIG. 9 by performing MIP processing on the volume data obtained by superimposing the above-described point A ′ and line L ′ on the extracted volume data.
  • control unit 19 displays cross-sectional image data that includes the needle tip of the puncture needle 5 in the second ultrasonic volume data and cuts the second ultrasonic volume data at a cross section orthogonal to the insertion path of the puncture needle 5.
  • the control part 19 is good also as cross-sectional image data which limited this cross-sectional image data to the region of interest.
  • the image generation unit 14 extracts volume data in the region of interest from the second ultrasonic volume data under the control of the control unit 19. Further, the acquisition unit 17 acquires the position of the cross section that includes the above-described point A ′ and is orthogonal to the line L ′ in the extracted volume data.
  • the image generation unit 14 generates MPR image data illustrated in FIG.
  • the display image data displayed on the monitor 2 is not limited to the two-dimensional image data generated from the second ultrasonic volume data as described above.
  • the control unit 19 is generated from at least one of ultrasound image data in which the tissue of the subject P is depicted and ultrasound image data in which the contrast medium distribution of the subject P is depicted, and the second ultrasound volume data.
  • the image data obtained by superimposing the two-dimensional image data may be displayed on the monitor 2.
  • the ultrasound image data in which the tissue of the subject P is depicted is, for example, fundamental wave volume data generated from three-dimensional reflected wave data that is a generation source of the first ultrasound volume data and contrast volume data.
  • the ultrasound image data in which the contrast tissue of the subject P is depicted is the contrast volume data used for generating the second ultrasound volume data.
  • the image generation unit 14 performs MPR processing, VR processing, MIP processing, and the like using volume data obtained by synthesizing the second ultrasonic volume data and the volume data to be superimposed according to the alignment instruction of the acquisition unit 17. By doing so, superimposed image data is generated. Note that the image generation unit 14 synthesizes the volume data after reducing the opacity of the volume data to be superimposed, for example.
  • the various types of display image data described above are generated from each second ultrasonic volume data when a plurality of second ultrasonic volume data are generated in time series. Further, the various types of display image data described above are generated from one second ultrasonic volume data when one piece of holding-type second ultrasonic volume data is generated. Further, the various types of display image data described above are generated from each of the plurality of second ultrasonic volume data when a plurality of holding-type second ultrasonic volume data are generated.
  • the second ultrasonic image data is image data provided for the doctor who performs the therapeutic effect determination to grasp the positional relationship between the blood flow remaining after the cauterization treatment and the boundary of the region of interest. is there.
  • color information in which different colors are set according to the distance from the boundary is used as setting information for generating such image data.
  • the setting information for presenting the positional relationship between the blood flow remaining after the cauterization treatment and the boundary of the region of interest is not limited to the color information described above.
  • the setting information in which different pixel values are set according to the distance from the boundary may be hatching information in which different hatching is set according to the distance from the boundary.
  • the setting information may be shading information in which different shadings are set in similar colors according to the distance from the boundary.
  • the shading information may be shading information in which different gradations are set in gray scale according to the distance from the boundary.
  • FIG. 11 is a flowchart illustrating an example of processing performed by the ultrasonic diagnostic apparatus according to the first embodiment.
  • FIG. 11 is a flowchart illustrating an example of processing performed by the ultrasonic diagnostic apparatus in step S4 illustrated in FIG.
  • the acquisition unit 17 of the ultrasonic diagnostic apparatus determines whether contrast volume data has been collected (step S101).
  • the acquisition unit 17 waits until contrast volume data is collected.
  • the acquisition unit 17 acquires the position of the region of interest in the contrast volume data. Then, under the control of the acquisition unit 17, the image generation unit 14 generates second ultrasonic volume data in which a color corresponding to the distance between the voxel and the region of interest is assigned to a voxel whose luminance value has increased by a threshold value or more ( Step S102).
  • the image generation unit 14 generates display image data using at least the second ultrasonic volume data under the control of the control unit 19 (step S103). Then, the monitor 2 displays the display image data under the control of the control unit 19 (step S104), and ends the process.
  • the boundary of the region of interest set based on the position of the needle tip and the type of the puncture needle 5 is detected by the position sensor 51 accurately and simply.
  • the position can be acquired accurately and simply in real space and volume space.
  • the reference of the color map (color information) is set as the boundary of the region of interest (the boundary of the treatment plan region), and the treatment plan region or treatment is performed based on the boundary position of the region of interest obtained accurately.
  • Display image data in which contrast agent inflow to the vicinity of the plan area is emphasized with different hues can be quickly generated and displayed. The doctor can easily visually recognize the remaining part of the blood flow by referring to the display image data in which contrast agent inflow is emphasized with a different hue. Therefore, in the first embodiment, reliable therapeutic effect determination of radiofrequency ablation can be performed quickly and easily.
  • 12A, 12B, 13A, and 13B are diagrams for explaining a modification according to the first embodiment.
  • the control unit 19 further displays a time change curve indicating a change with time of the luminance value in the region of interest. That is, since a plurality of contrast volume data are generated in time series, for example, the control unit 19 can generate a time change curve in the region of interest. Therefore, as illustrated in FIG. 12A, the control unit 19 generates a time change curve in which the luminance (Intensity) in the region of interest is plotted along the time (time), and displays the time change curve together with the image data.
  • control unit 19 generates a plurality of time change curves in which the luminance values of the plurality of voxels in the region of interest are plotted, even if one time change curve in which the average luminance values in the region of interest are plotted is generated. May be.
  • the control unit 19 plots an average luminance value of each of a plurality of regions in the region of interest (a region between the boundary M1, a region sandwiched between the boundary M1 and the boundary M2, a region sandwiched between the boundary M2 and the boundary M, etc.).
  • a plurality of time change curves may be generated.
  • control unit 19 may generate a time change curve outside the region of interest.
  • the control unit 19 further displays the ratio of the region to which the pixel value is assigned in the region of interest to the region of interest.
  • the control unit 19 displays the ratio of a region assigned a color in the region of interest to the region of interest.
  • the control unit 19 may calculate the ratio by dividing the number of voxels whose luminance value change is equal to or greater than a threshold value in the region of interest by the number of voxels in the region of interest, and display the ratio on the monitor 2. For example, as illustrated in FIG. 12B, the control unit 19 calculates a ratio “5%” of the contrast agent inflow volume in the region of interest to the volume of the region of interest, and causes the monitor 2 to display it.
  • the above ratio may be calculated for the entire region of interest or may be calculated for each of a plurality of regions in the region of interest. Further, the control unit 19 may calculate a ratio in a region outside the region of interest. Further, when a plurality of second ultrasonic volume data are generated, the above ratio is calculated from each second ultrasonic volume data.
  • the doctor can further objectively and efficiently determine the effect of the RFA treatment.
  • the image generation unit 14 generates the second ultrasonic image data in the region of interest or in a region limited to the inside of the region of interest and the outside of the vicinity of the boundary of the region of interest.
  • the acquisition unit 17 controls the image generation unit 14 to generate the second ultrasonic volume data only within the boundary M.
  • the image generation unit 14 generates the second ultrasonic volume data limited to the inside of the boundary M3 that is the boundary outside the boundary M. That is, in the second modification, the load in the generation process of the second ultrasonic volume data can be reduced by limiting the monitoring region of the luminance increase due to the contrast agent.
  • the processing described in the first embodiment may be performed without using the position sensor 51 and the detection unit 16.
  • the second ultrasonic volume data that is the image data for determining the therapeutic effect is generated based on the setting information set based on the distance in the real space. That is, if the distance in the volume space can be converted into the distance in the real space, the image generation unit 14 can generate the second ultrasonic volume data.
  • the control unit 19 that controls the transmission / reception unit 11, the B-mode generation unit 12, and the image generation unit 14 acquires a correspondence relationship between the shape and size of the ultrasound scanning region and the shape and size of the ultrasound image data. Is possible. Further, from the correspondence relationship, the control unit 19 can acquire conversion information for converting the distance in the volume space into the distance in the real space.
  • the acquisition unit 17 acquires the conversion information from the control unit 19. Then, for example, using the acquired conversion information, the acquisition unit 17 converts the distance between the pixel whose luminance value change is equal to or greater than the threshold and the boundary into a distance in real space. And the acquisition part 17 acquires the color allocated to the said pixel from the distance after conversion. Also by such processing, the image generating unit 14 can generate and display the second ultrasonic volume data.
  • FIG. 14 is a diagram for explaining the second embodiment.
  • the internal storage unit 18 stores a plurality of threshold values having different values according to the distance from the boundary as threshold values for luminance value changes.
  • the internal storage unit 18 has a uniform threshold within the region of interest of the distance “d ⁇ 0” to which the color tone “R1, R2, R3” illustrated in FIG. Information in which “TH1” is set is stored.
  • the internal storage unit 18 is uniformly larger than TH1 outside the region of interest of the distance “d> 0” to which the color tone “B1” illustrated in FIG. 6A is allocated. Information in which the threshold “TH2” is set is stored.
  • the internal storage unit 18 is proportional to d outside the region of interest having a distance “d> 0” to which the color tone “B2” illustrated in FIG. 6A is allocated.
  • Information in which a threshold value that increases from a TH2 to TH3 by a linear function is set is stored. Note that the threshold corresponding to the distance can be arbitrarily set by the operator.
  • the image generation unit 14 colors a color corresponding to the distance between the pixel and the region of interest to the pixel that is equal to or greater than the threshold value corresponding to the distance from the region of interest.
  • the second ultrasonic image data is generated based on the information.
  • three-dimensional scanning is performed as in the first embodiment. Therefore, the image generation unit 14 according to the second embodiment colors a color corresponding to the distance between the voxel and the boundary of the region of interest to the voxel that is equal to or greater than the threshold corresponding to the distance from the boundary of the region of interest.
  • the second ultrasonic volume data is generated by assigning based on the information. In the second embodiment as well, second ultrasonic volume data is generated by assigning pixel values according to the distance from the boundary using setting information (hatching information and shading information) other than color information. You may do it.
  • the display image data, the time change curve, and the ratio described in the first embodiment are displayed.
  • the contents described in the first embodiment are also applied to the second embodiment, except that the threshold value changes according to the distance from the boundary.
  • the processing of the ultrasonic diagnostic apparatus according to the second embodiment is the same as that of step S102 described in FIG. 11 except that the threshold determination using the setting information shown in FIG. 14 is performed, for example. Since it is the same as that of the form, the description is omitted.
  • the setting information illustrated in FIG. 14 is an example of a color map for improving the visibility of a relatively large blood vessel located near the outside of the region of interest.
  • the color map is used to highlight a blood vessel with a large increase in luminance even outside the region of interest, thereby helping to validate the region of interest setting by the doctor and assist additional treatment planning. Possible information can be provided.
  • the second embodiment may be a case where a plurality of threshold values are set according to the distance even in the region of interest.
  • FIGS. 15A and 15B are diagrams for explaining the second embodiment.
  • the case where contrast volume data is collected in the state where the position of the puncture needle 5 is fixed in step S4 shown in FIG. 2 has been described.
  • the positional relationship between the first volume data and the contrast volume data can be uniquely specified.
  • the effect determination of RFA treatment is not only performed after a short period of time such as 5 minutes later, but may be performed after several days such as 5 days later.
  • the doctor needs to determine the therapeutic effect using the contrast volume data collected in a state where the puncture needle 5 is not inserted, and perform the determination in step S5 or step S6.
  • the acquisition unit 17 according to the third embodiment uses the first ultrasound image data (first ultrasound volume data) and Alignment with contrast image data (contrast volume data) is performed. Then, the acquisition unit 17 according to the third embodiment acquires the position of the corresponding region corresponding to the region of interest in the contrast image data (contrast volume data) from the alignment result. Specifically, the acquisition unit 17 performs alignment based on a structure drawn around the region of interest in the first ultrasonic image data (first ultrasonic volume data).
  • the acquisition unit 17 acquires the position of the portal vein or hepatic artery located in the vicinity of the boundary M ′ corresponding to the boundary M of the region of interest in the first ultrasonic volume data.
  • the positions of the portal vein and hepatic artery of the first ultrasonic volume data may be specified by a doctor, an engineer, or the like, for example, or may be acquired by the acquisition unit 17 from information on luminance values. Also good.
  • the acquisition part 17 acquires the position of the portal vein and hepatic artery in contrast volume data.
  • the position of the portal vein or hepatic artery in the contrast volume data may be specified by, for example, a doctor or an engineer, or may be acquired by the acquisition unit 17 from information on luminance values.
  • the acquisition unit 17 aligns the first ultrasonic volume data and the contrast volume data.
  • the acquisition unit 17 performs initial alignment between the first ultrasonic volume data and the contrast volume data using the position information of the structure such as a blood vessel under the position sensor, and further, the one volume data is obtained. The positioning with the other volume data is completed while moving by a minute distance.
  • the ultrasonic probe 1 contact the puncture needle 5 having the position sensor 51 in order to perform alignment accurately.
  • the needle tip of the puncture needle 5 is brought into contact with the body surface.
  • the position of the body surface with which the ultrasound probe 1 is brought into contact when the contrast volume data is collected is usually adjusted to be the position where the first ultrasound volume data is collected.
  • the detection unit 15 detects the position of the needle tip.
  • the position where the needle tip abuts at this time is preferably substantially the same position as the position of the body surface where the puncture needle 5 is inserted when the puncture for treatment is performed.
  • the acquisition part 17 can acquire the position of the needle point at the time of contrast volume data collection.
  • the acquisition unit 17 can acquire the position of the body surface where the puncture needle 5 is inserted during RFA treatment.
  • the acquisition unit 17 corrects the alignment performed initially using the position information before and after the treatment detected by the detection unit 15. Thereby, the acquisition part 17 can perform exact position alignment with 1st ultrasonic volume data and contrast volume data.
  • the doctor may collect contrast volume data after the puncture needle 5 is removed using the ultrasonic probe 1 to which the position sensor is attached.
  • the detection unit 15 can detect the contact position of the ultrasonic probe 1 using a position sensor attached to the ultrasonic probe 1.
  • the acquisition unit 17 calculates first ultrasonic volume data, contrast volume data, and the like from the insertion position of the puncture needle 5 at the time of collecting the first ultrasonic volume data and the contact position of the ultrasonic probe 1 at the time of collecting the contrast volume data. Can be accurately aligned.
  • a position sensor may be attached to the ultrasound probe 1 at the time of the first ultrasound volume data collection.
  • the acquisition unit 17 can accurately perform the alignment between the first ultrasonic volume data and the contrast volume data.
  • initial alignment based on the structure drawn around the region of interest may not be performed.
  • the alignment processing is not limited to the case of using a structure such as a blood vessel, but the mutual information amount and image correlation for contrast volume data at substantially the same time phase before and after treatment or tissue volume data before and after treatment. It is also possible to use a known technique such as.
  • the doctor collects contrast volume data before RFA treatment in the same three-dimensional scanning region as the first ultrasound volume data after collecting the first ultrasound volume data.
  • the contrast volume data before the RFA treatment is, for example, contrast volume data of the arterial phase in which the blood vessel structure is stained.
  • the acquisition part 17 acquires the contrast volume data of the same time phase as the contrast volume data before RFA treatment from the contrast volume data group collected in the state where the puncture needle 5 was removed after RFA treatment. Then, the acquisition unit 17 aligns these two contrast volume data by a method using mutual information, image correlation, or the like. Thereby, the acquisition unit 17 can accurately align the first ultrasonic volume data and the contrast volume data.
  • a doctor collects tissue volume data in the B mode before collecting contrast volume data after RFA treatment. Then, the acquisition unit 17 performs alignment between the first ultrasonic volume data and the tissue volume data by a method using a mutual information amount, an image correlation, or the like. Thereby, the acquisition unit 17 can accurately align the first ultrasonic volume data and the contrast volume data.
  • alignment using the position sensor may be further performed.
  • the acquisition unit 17 acquires the position of the boundary MA 'of the corresponding region in the volume space of the contrast volume data, as shown in the left diagram of FIG. 15B, from the alignment result.
  • the acquisition unit 17 associates the volume space of the first ultrasonic volume data with the real space when setting the region of interest.
  • the acquisition unit 17 has completed the association between the volume space of the contrast volume data and the volume space of the first ultrasonic volume data by the alignment. Accordingly, the acquisition unit 17 can acquire the position of the boundary MA of the corresponding region in the real space from the position of the boundary MA ′ of the corresponding region in the volume space of the contrast volume data, as shown in the right diagram of FIG. 15B. .
  • the image generation unit 14 generates second ultrasonic image data (second ultrasonic volume data) based on the position of the boundary of the corresponding region.
  • the display image data, the time change curve, and the ratio described in the first embodiment are displayed.
  • the contents described in the first and second embodiments are also applied to the third embodiment, except that the boundary position of the region corresponding to the region of interest in the contrast volume data is acquired by the alignment process. .
  • the processing of the ultrasonic diagnostic apparatus according to the third embodiment is the same as that of the first embodiment except that the processing of step S102 described in FIG. 11 is performed using the boundary of the corresponding region. Description is omitted.
  • the contrast volume can be obtained from the result of the alignment process by accurately acquiring the position of the region of interest.
  • the position of the corresponding area in the data can be acquired accurately.
  • the alignment processing performed in the third embodiment is alignment between ultrasonic volume data, it can be performed accurately and quickly as compared with alignment between other types of volume data. Therefore, in the third embodiment, reliable therapeutic effect determination of radiofrequency ablation can be performed quickly and easily at any time.
  • FIG. 16 is a diagram for explaining the fourth embodiment.
  • the position of the puncture needle 5 is usually changed and cauterization is performed a plurality of times.
  • the processes in steps S1 to S4 are executed again.
  • a new region of interest is set in step S2. Then, image data for therapeutic effect determination is generated and displayed using the boundary of the new region of interest.
  • the acquisition unit 17 when the treatment using the puncture needle 5 is performed a plurality of times by changing the position of the puncture needle 5, the acquisition unit 17 according to the fourth embodiment synthesizes a plurality of regions of interest set in each treatment.
  • the position of the boundary of the synthesized area obtained is
  • the image generation part 14 which concerns on 5th Embodiment produces
  • L (1st) shown in the left diagram of FIG. 16 indicates an insertion path in the real space where the puncture needle 5 is inserted in the first cauterization treatment.
  • M (1st) shown in the left diagram of FIG. 16 is a boundary in the real space of the region of interest set based on the position of “the tip of the insertion path L (1st) (needle tip of the puncture needle 5)”. Indicates the position.
  • L (2nd) shown in the middle diagram of FIG. 16 is that the first ablation treatment was insufficient, so that the puncture needle 5 was inserted in the second ablation treatment in order to change the position for ablation.
  • the insertion path in real space is shown.
  • M (2nd) shown in the middle diagram of FIG. 16 is a boundary in the real space of the region of interest set based on the position of “the tip of the insertion path L (2nd) (needle tip of the puncture needle 5)”. Indicates the position.
  • the acquisition unit 17 acquires the position of the composite boundary CM obtained by combining the boundary M (1st) and the boundary M (2nd) as shown in the right diagram of FIG.
  • the acquiring unit 17 also acquires the position of the volume space combination boundary corresponding to the real space combination boundary CM.
  • the acquisition unit 17 uses the one threshold value (or a plurality of threshold values) and the setting information to generate the second ultrasound image data (second ultrasound volume data), and the image generation unit 14 To control.
  • the image generation unit 14 generates various display image data described in the first embodiment using the second ultrasonic volume data, and outputs the generated image data to the monitor 2.
  • the monitor 2 displays image data in which lines indicating the positions of the boundary M (1st) and the boundary M (2nd) are superimposed on the MPR image data generated from the second ultrasonic volume data based on the composite boundary. .
  • the second ultrasonic image data using the composite boundary is generated and displayed, so that the determination of the therapeutic effect of the radiofrequency ablation performed multiple times can be performed quickly and easily. Can be done.
  • the control unit 19 executes the generation and display of the second ultrasonic image data based on the latest boundary position of the region of interest, and uses the second ultrasonic image data.
  • the boundary of the region of interest of the previous time or the previous time may be displayed by a dotted line.
  • FIGS. 17 and 18 are diagrams for explaining the fifth embodiment.
  • a pixel value for example, color
  • a pixel value for example, color
  • second ultrasonic image data is generated.
  • the doctor can determine the presence or absence of blood flow remaining in or outside the region of interest.
  • the doctor who judges the therapeutic effect, whether the blood flow remaining after the cauterization treatment is the blood flow flowing in the blood vessel (for example, in the nutrient blood vessel of the tumor) or via the capillary blood vessel It is also important to determine perfusion flowing through the tissue.
  • the image generation unit 14 applies to the pixel whose luminance value change before and after contrast is equal to or greater than the threshold, the distance between the pixel and the region of interest, and the luminance value change at the pixel.
  • the second ultrasound image data is generated by assigning a pixel value corresponding to the time when becomes equal to or greater than the threshold.
  • the internal storage unit 16 stores setting information in which different pixel values are set according to the distance from the boundary and time.
  • the internal storage unit 16 stores color information in which different colors are set according to the distance from the boundary and the time. In other words, the color information is color information obtained by adding a time axis to the color information shown in FIGS. 6A and 14.
  • the internal storage unit 16 stores color information in which the opacity of the color tone “R1” decreases with time (t).
  • the acquisition unit 16 causes the image generation unit 14 to generate second ultrasonic image data (second ultrasonic volume data) using the color information illustrated in FIG.
  • second ultrasonic image data generated by such processing, the pixel at the position that exceeds the threshold earlier is rendered in a color with higher opacity, and the pixel at the position that exceeds the threshold later is rendered in a color with higher transparency.
  • the doctor can discriminate between blood flow and perfusion by grasping the transparency even in the same color tone.
  • the image generation unit 14 determines the distance between the pixel and the region of interest and the change in the luminance value of the pixel for the pixel whose luminance value before and after contrasting is equal to or greater than the threshold.
  • the second ultrasound image data is generated by assigning pixel values corresponding to the amounts.
  • the internal storage unit 16 stores setting information in which different pixel values are set according to the distance from the boundary and time.
  • the color information is color information obtained by adding a change amount axis to the color information illustrated in FIGS. 6A and 14.
  • the internal storage unit 16 stores color information in which the transparency of the color tone “R1” decreases as the amount of change in luminance value (dI) increases.
  • the acquisition unit 16 causes the image generation unit 14 to generate second ultrasonic image data (second ultrasonic volume data) using the color information illustrated in FIG.
  • second ultrasonic image data generated by such processing, a pixel with a higher “dI” value is rendered in a color with higher opacity, and a pixel with a lower “dI” value has higher transparency. It will be drawn in color.
  • the doctor can discriminate between blood flow and perfusion by grasping the transparency even in the same color tone.
  • the fifth embodiment can be applied to, for example, a case where the color shading is changed in addition to changing the color transparency with respect to the added axis. Further, the fifth embodiment is applicable even when hatching information or shading information is used as setting information in addition to color information.
  • the map image data that can identify whether the blood flow remaining after the cauterization treatment is, for example, blood flow in a nutrient blood vessel of a tumor or perfusion. Can be generated and displayed.
  • the case where image processing is performed on volume data generated by three-dimensional scanning has been described.
  • the image processing described in the first to fifth embodiments can be applied even when it is performed on two-dimensional image data generated by two-dimensional scanning.
  • each component of each illustrated apparatus is functionally conceptual and does not necessarily need to be physically configured as illustrated.
  • the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or a part of the distribution / integration is functionally or physically distributed in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
  • all or a part of each processing function performed in each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.
  • the image processing methods described in the first to fifth embodiments can be realized by executing a prepared image processing program on a computer such as a personal computer or a workstation.
  • This image processing program can be distributed via a network such as the Internet.
  • the image processing program is recorded on a computer-readable non-transitory recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, and a DVD, and is executed by being read from the recording medium by the computer.
  • FD hard disk
  • CD-ROM compact disc
  • MO Compact Disc
  • DVD digital versatile disc
  • reliable therapeutic effect determination of radiofrequency ablation can be performed quickly and easily.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Gynecology & Obstetrics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Hematology (AREA)
  • Robotics (AREA)
  • Cardiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pregnancy & Childbirth (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

 実施形態の超音波診断装置は、取得部(17)と、画像生成部(14)と、制御部(19)とを備える。取得部(17)は、被検体の第1超音波画像データにて設定された関心領域の境界の位置を取得する。画像生成部(14)は、穿刺針を用いた治療後に収集された前記被検体の造影前の画像データと造影後の画像データとにおいて、造影前後の輝度値の変化が閾値以上である画素に、当該画素と前記関心領域の境界との距離に応じた画素値を割り当てた第2超音波画像データを生成する。制御部(19)は、前記第2超音波画像データを表示部に表示させる。

Description

超音波診断装置及び画像処理方法
 本発明の実施形態は、超音波診断装置及び画像処理方法に関する。
 超音波診断装置は、簡便な操作性、被爆のおそれがない非侵襲性、システム規模の小ささ等の様々な利点を備えた医用画像診断装置として、今日の医療において重要な役割を果たしている。すなわち、超音波診断装置は、超音波プローブを体表から当てるだけの簡便な操作により、例えば、心臓の拍動や胎児の動きといった検査対象の動きの様子をリアルタイムで表示することができる。また、超音波診断装置は、非侵襲性であることから安全性が高く、繰り返して検査を行なうことができる。また、超音波診断装置は、X線診断装置、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置などの他の医用画像診断装置に比べシステムの規模が小さく、ベッドサイドへ移動しての検査も容易に行なうことができる。また、超音波診断装置には、片手で持ち運べる程度に小型化された装置も開発されており、かかる超音波診断装置は、産科や在宅医療などの医療現場においても容易に使用することができる。
 また、近年、静脈投与型の超音波造影剤が製品化され、「造影エコー法」が行なわれている。以下、超音波造影剤を省略して造影剤と記載する場合がある。造影エコー法は、例えば、心臓や肝臓等の検査において、静脈から造影剤を注入して血流信号を増強し、血流動態の評価を行うことを目的としている。造影剤の多くは、微小気泡(マイクロバブル)が反射源として機能する。例えば、近年、日本で発売されたソナゾイド(登録商標)と呼ばれる第二世代の超音波造影剤は、リン脂質によりフッ化炭素(perfluorobutane)ガスを内包した微小気泡である。造影エコー法では、微小気泡を破壊させない程度の中低音圧の送信超音波を用いることで、造影剤の還流の様子を安定して観察することができる。
 また、超音波診断装置を用いた治療分野における応用も進んでいる。例えば、腫瘍組織の病理検査のための針生検は、超音波診断装置を用いた超音波ガイド下で行なわれることがある。更に、肝臓がん等の限局性腫瘍のラジオ波焼灼術(RFA:Radio Frequency Ablation)のためのRFA針(電極針)の穿刺は、超音波ガイド下で行なわれる。また、RFAの治療効果判定にも超音波診断装置が用いられている。
 RFA治療は、体表から電極針を病変部(腫瘍部)に向かって挿入し、ラジオ波により発生する高温により病変部を凝固死させる治療法である。近年では、RFA治療の効果判定に、上述した造影超音波が利用されることが多い。具体的には、RFA治療の効果判定では、RFA治療を行なった治療部において腫瘍を栄養する血流(腫瘍血流)が無くなっているかを、造影エコー法により確認する。RFA治療を行なう領域(治療計画領域)は、再発防止のために、腫瘍境界に対して全方位的に5mm程度のマージンを確実にとることが大切である。しかし、RFA治療では、焼灼のために、治療前後で組織像が変化したり、ガスが発生したりする。このため、治療後に行なった造影撮影された画像を参照しても、医師は、針先の位置や腫瘍境界の位置がわかりにくく、治療効果の判定が困難である。また、腫瘍の大きさや形態、近傍の血管による冷却効果等により、1回のRFA治療では不十分な場合もあり、追加治療を行なうために、治療計画領域内や治療計画領域の外側近傍における血流の残存部位を正確に把握する必要がある。
 すなわち、RFA治療の効果判定では、治療計画領域に対する造影剤流入の有無を確実かつ簡便に把握することが必要となる。しかし、通常、RFA治療の効果判定は、医師が主観で行なう場合が多い。そこで、治療前のX線CTボリュームデータ、MRIボリュームデータ、又は、超音波ボリュームデータを参照画像とし、治療後の超音波ボリュームデータと参照画像との位置合せを行なって、客観的な効果判定を行なう方法が知られている。この方法は、治療前の参照画像と治療後の超音波ボリュームデータとの位置合わせに基づいて、腫瘍境界と焼灼領域境界との距離を計測し、計測した距離をカラー表示することで、医師に定量的な治療効果を提示する方法である。
 しかし、ボリュームデータの読込みやボリュームデータ間の位置合せ処理等を、穿刺治療中に即時的に行うことは困難である。例えば、上述したように、治療前後で組織像が変化したり、ガスが発生したりするため、位置合せ処理は、困難となる場合がある。また、治療現場では、医師は、追加治療の必要性を瞬時に把握する必要がある。
特開2010-274043号公報
 本発明が解決しようとする課題は、ラジオ波焼灼術の確実な治療効果判定を迅速かつ簡便に行なうことができる超音波診断装置及び画像処理方法を提供することである。
 実施形態の超音波診断装置は、取得部と、画像生成部と、制御部とを備える。取得部は、被検体の第1超音波画像データにて設定された関心領域の境界の位置を取得する。画像生成部は、穿刺針を用いた治療後に収集された前記被検体の造影前の画像データと造影後の画像データとにおいて、造影前後の輝度値の変化が閾値以上である画素に、当該画素と前記関心領域の境界との距離に応じた画素値を割り当てた第2超音波画像データを生成する。制御部は、前記第2超音波画像データを表示部に表示させる。
図1は、第1の実施形態に係る超音波診断装置の構成例を示す図である。 図2は、第1の実施形態で行なわれるRFA治療のワークフローの一例を示すフローチャートである。 図3は、図1に示す検出部を説明するための図である。 図4は、図1に示す取得部を説明するための図(1)である。 図5は、図1に示す取得部を説明するための図(2)である。 図6Aは、第1の実施形態に係る画像生成部を説明するための図(1)である。 図6Bは、第1の実施形態に係る画像生成部を説明するための図(2)である。 図7は、第1の実施形態に係る画像生成部を説明するための図(3)である。 図8は、第1の実施形態に係る画像生成部を説明するための図(4)である。 図9は、第1の実施形態に係る画像生成部を説明するための図(5)である。 図10は、第1の実施形態に係る画像生成部を説明するための図(6)である。 図11は、第1の実施形態に係る超音波診断装置が行なう処理の一例を示すフローチャートである。 図12Aは、第1の実施系形態に係る変形例を説明するための図(1)である。 図12Bは、第1の実施系形態に係る変形例を説明するための図(2)である。 図13Aは、第1の実施系形態に係る変形例を説明するための図(3)である。 図13Bは、第1の実施系形態に係る変形例を説明するための図(4)である。 図14は、第2の実施形態を説明するための図である。 図15Aは、第3の実施形態を説明するための図(1)である。 図15Bは、第3の実施形態を説明するための図(2)である。 図16は、第4の実施形態を説明するための図である。 図17は、第5の実施形態を説明するための図(1)である。 図18は、第5の実施形態を説明するための図(2)である。
 以下、添付図面を参照して、超音波診断装置の実施形態を詳細に説明する。
(第1の実施形態)
 まず、第1の実施形態に係る超音波診断装置の構成について説明する。図1は、第1の実施形態に係る超音波診断装置の構成例を示す図である。図1に示すように、第1の実施形態に係る超音波診断装置は、超音波プローブ1と、モニタ2と、入力装置3と、装置本体10とを有する。
 超音波プローブ1は、装置本体10と着脱自在に接続される。超音波プローブ1は、例えば、複数の圧電振動子を有し、これら複数の圧電振動子は、後述する装置本体10が有する送受信部11から供給される駆動信号に基づき超音波を発生する。また、超音波プローブ1は、被検体Pからの反射波を受信して電気信号に変換する。また、超音波プローブ1は、圧電振動子に設けられる整合層や、圧電振動子から後方への超音波の伝播を防止するバッキング材等を有する。
 超音波プローブ1から被検体Pに超音波が送信されると、送信された超音波は、被検体Pの体内組織における音響インピーダンスの不連続面で次々と反射され、反射波信号として超音波プローブ1が有する複数の圧電振動子にて受信される。受信される反射波信号の振幅は、超音波が反射される不連続面における音響インピーダンスの差に依存する。なお、送信された超音波パルスが、移動している血流や心臓壁等の表面で反射された場合の反射波信号は、ドプラ効果により、移動体の超音波送信方向に対する速度成分に依存して、周波数偏移を受ける。
 例えば、装置本体10は、2次元走査用の超音波プローブ1として、複数の圧電振動子が一列で配置された1Dアレイプローブと接続される。或いは、例えば、装置本体10は、3次元走査用の超音波プローブ1として、メカニカル4Dプローブや2Dアレイプローブと接続される。メカニカル4Dプローブは、1Dアレイプローブのように一列で配列された複数の圧電振動子を用いて2次元走査が可能であるとともに、複数の圧電振動子を所定の角度(揺動角度)で揺動させることで3次元走査が可能である。また、2Dアレイプローブは、マトリックス状に配置された複数の圧電振動子により3次元走査が可能であるとともに、超音波を集束して送信することで2次元走査が可能である。
 ここで、第1の実施形態は、超音波プローブ1により、被検体Pが2次元走査される場合であっても、3次元走査される場合であっても適用可能である。以下では、超音波プローブ1により、被検体Pが3次元走査される場合について説明する。
 そして、第1の実施形態では、ラジオ波焼灼(RFA:Radio Frequency Ablation)治療を行なうために、図1に示すように、超音波プローブ1に穿刺アダプタ4が取り付けられる。そして、穿刺アダプタ4には、ラジオ波を発生する電極針である穿刺針5が取り付けられる。医師は、超音波プローブ1が行なった超音波送受信によりモニタ2に表示される超音波画像データを参照しながら、穿刺アダプタ4に取り付けられた穿刺針5を被検体Pの治療部位まで挿入する。ただし、第1の実施形態は、穿刺アダプタ4を用いることなく、穿刺針5による穿刺がフリーハンドで行われる場合でも適用可能である。
 なお、図1には図示していないが、穿刺針5は、穿刺針5が発生するラジオ波の出力を制御する治療装置と接続される。この治療装置は、穿刺針5の温度や、ラジオ波の出力、焼灼領域のインピーダンスをモニタ可能であり、医師は、治療装置を操作して、穿刺針5を用いたRF治療を進める。
 そして、本実施形態に係る穿刺針5は、位置センサ51を有する。位置センサ51は、例えば、図1に示すように、穿刺針5の根元(例えば、ブラケット部位)に内蔵される。なお、位置センサ51は、穿刺針5の先端部位に内蔵される場合であっても良い。位置センサ51は、磁気センサである。また、図1に示すトランスミッター6は、任意の位置に配置され、自装置を中心として外側に向かって磁場を形成する装置である。本実施形態では、トランスミッター6は、装置本体10の近傍に設置される。なお、本実施形態は、トランスミッター6が装置本体10に取り付けられる場合であっても良い。位置センサ51は、トランスミッター6によって形成された3次元の磁場を検出する。そして、位置センサ51は、検出した磁場の情報を、装置本体10に送信する。例えば、位置センサ51は、検出した磁場の情報を、無線通信、或いは、有線通信により装置本体10に送信する。ここで、穿刺針5の根元に内蔵される位置センサ51は、穿刺針5の根元から先端に向かう方向に沿って、大きさを有する。このため、位置センサ51が検出した磁場の情報は、穿刺針5の根元の位置と、穿刺針5の3次元的な方向とを検出可能な情報となる。従って、穿刺針5の挿入経路が直線であると仮定し、穿刺針5の長さが既知であるならば、位置センサ51が検出した磁場の情報は、穿刺針5の針先の位置を検出可能な情報となる。
 入力装置3は、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、トラックボール等を有し、超音波診断装置の操作者からの各種設定要求を受け付け、装置本体10に対して受け付けた各種設定要求を転送する。例えば、入力装置3は、RFA治療を行なう領域の設定を操作者から受け付ける。
 モニタ2は、超音波診断装置の操作者が入力装置3を用いて各種設定要求を入力するためのGUI(Graphical User Interface)を表示したり、装置本体10において生成された超音波画像を表示したりする。
 装置本体10は、超音波プローブ1が受信した反射波に基づいて超音波画像データを生成する装置であり、図1に示すように、送受信部11と、Bモード処理部12と、ドプラ処理部13と、画像生成部14と、画像メモリ15と、検出部16と、取得部17と、内部記憶部18と、制御部19とを有する。
 送受信部11は、トリガ発生回路、遅延回路及びパルサ回路等を有し、超音波プローブ1に駆動信号を供給する。パルサ回路は、所定のレート周波数で、送信超音波を形成するためのレートパルスを繰り返し発生する。また、遅延回路は、超音波プローブ1から発生される超音波をビーム状に集束して送信指向性を決定するために必要な圧電振動子ごとの遅延時間を、パルサ回路が発生する各レートパルスに対し与える。また、トリガ発生回路は、レートパルスに基づくタイミングで、超音波プローブ1に駆動信号(駆動パルス)を印加する。すなわち、遅延回路は、各レートパルスに対し与える遅延時間を変化させることで、圧電振動子面からの送信方向を任意に調整する。
 駆動パルスは、パルサ回路からケーブルを介して超音波プローブ1内の圧電振動子まで伝達した後に、圧電振動子において電気信号から機械的振動に変換される。この機械的振動は、生体内部で超音波として送信される。ここで、圧電振動子ごとに異なる送信遅延時間を持った超音波は、収束されて、所定方向に伝搬していく。すなわち、遅延回路は、各レートパルスに対し与える送信遅延時間を変化させることで、圧電振動子面からの送信方向を任意に調整する。
 なお、送受信部11は、後述する制御部19の指示に基づいて、所定のスキャンシーケンスを実行するために、送信周波数、送信駆動電圧等を瞬時に変更可能な機能を有している。特に、送信駆動電圧の変更は、瞬間にその値を切り替え可能なリニアアンプ型の発信回路、又は、複数の電源ユニットを電気的に切り替える機構によって実現される。
 また、送受信部11は、アンプ回路、A/D変換器、加算器等を有し、超音波プローブ1が受信した反射波信号に対して各種処理を行なって反射波データを生成する。アンプ回路は、反射波信号をチャンネルごとに増幅してゲイン補正処理を行なう。A/D変換器は、ゲイン補正された反射波信号をA/D変換し、受信指向性を決定するのに必要な受信遅延時間を与える。加算器は、与えられた遅延時間に基づき、反射波信号の加算処理を行なって反射波データを生成する。加算器の加算処理により、反射波信号の受信指向性に応じた方向からの反射成分が強調される。
 このように、送受信部11は、超音波の送受信における送信指向性と受信指向性とを制御する。送受信部11が制御する受信指向性と送信指向性とにより、超音波送受信の総合的なビームが形成される。ここで、送受信部11は、被検体Pを2次元走査する場合、超音波プローブ1から2次元の超音波ビームを送信させる。そして、送受信部11は、超音波プローブ1が受信した2次元の反射波信号から2次元の反射波データを生成する。また、送受信部11は、被検体Pを3次元走査する場合、超音波プローブ1から3次元の超音波ビームを送信させる。そして、送受信部11は、超音波プローブ1が受信した3次元の反射波信号から3次元の反射波データを生成する。なお、送受信部11からの出力信号の形態は、RF(Radio Frequency)信号と呼ばれる位相情報が含まれる信号である場合や、包絡線検波処理後の振幅情報である場合等、種々の形態が選択可能である。
 Bモード処理部12は、送受信部11から反射波データを受信し、受信した反射波データに対して対数増幅、包絡線検波処理等を行なって、信号強度が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。
 ドプラ処理部13は、送受信部11から反射波データを受信し、受信した反射波データから速度情報を周波数解析し、ドプラ効果による血流や組織、造影剤エコー成分を抽出し、平均速度、分散、パワー等の移動体情報を多点について抽出したデータ(ドプラデータ)を生成する。なお、Bモード処理部12やドプラ処理部13が生成したデータは、生データ(Raw Data)とも呼ばれる。
 なお、Bモード処理部12は、フィルタ処理により、検波周波数を変化させることで、映像化する周波数帯域を変えることができる。このBモード処理部12の機能を用いることにより、本実施形態に係る超音波診断装置は、コントラストハーモニックイメージング(CHI:Contrast Harmonic Imaging)を実行可能である。すなわち、Bモード処理部12は、造影剤が注入された被検体Pの反射波データから、フィルタ処理により、造影剤(微小気泡、バブル)を反射源とする反射波データ(高調波データ又は分周波データ)と、被検体P内の組織を反射源とする反射波データ(基本波データ)とを分離することができる。例えば、Bモード処理部12は、造影剤が注入された被検体Pの反射波データから、2次高調波データを用いた造影画像データを生成するためのBモードデータや、基本波データを用いた組織画像データを生成するためのBモードデータを生成することができる。
 また、このBモード処理部12のフィルタ処理機能を用いることにより、ティッシュハーモニックイメージング(THI:Tissue Harmonic Imaging)において、被検体Pの反射波データから、高調波データ又は分周波データを分離することで、ノイズ成分を除去した組織画像データを生成するためのBモードデータを生成することができる。なお、CHIやTHIのハーモニックイメージングを行なう際、Bモード処理部12は、上述したフィルタ処理を用いた方法とは異なる方法により、ハーモニック成分を抽出することができる。ハーモニックイメージングでは、振幅変調(AM:Amplitude Modulation)法や位相変調(PM:Phase Modulation)法、AM法及びPM法を組み合わせたAMPM法と呼ばれる映像法が行なわれる。AM法、PM法及びAMPM法では、同一の走査線に対して振幅や位相が異なる超音波送信を複数回行なう。これにより、送受信部11は、各走査線で複数の反射波データ(受信信号)を生成し出力する。そして、Bモード処理部13は、各走査線の複数の反射波データ(受信信号)を、変調法に応じた加減算処理することで、ハーモニック成分を抽出する。そして、Bモード処理部13は、ハーモニック成分の反射波データ(受信信号)に対して包絡線検波処理等を行なって、Bモードデータを生成する。
 例えば、PM法が行なわれる場合、送受信部11は、制御部19が設定したスキャンシーケンスにより、例えば(-1,1)のように、位相極性を反転させた同一振幅の超音波を、各走査線で2回送信させる。そして、送受信部11は、「-1」の送信による受信信号と、「1」の送信による受信信号とを生成し、Bモード処理部12は、これら2つの受信信号を加算する。これにより、基本波成分が除去され、2次高調波成分が主に残存した信号が生成される。そして、Bモード処理部12は、この信号に対して包絡線検波処理等を行なって、THIのBモードデータやCHIのBモードデータを生成する。ここで、例えば、CHIでPM法が行なわれる場合、Bモード処理部12は、「1」の送信による受信信号をフィルタ処理することで、組織画像データを生成するためのBモードデータを生成することができる。
 なお、図1に例示するBモード処理部12及びドプラ処理部13は、2次元の反射波データ及び3次元の反射波データの両方について処理可能である。すなわち、Bモード処理部12は、2次元の反射波データから2次元のBモードデータを生成し、3次元の反射波データから3次元のBモードデータを生成する。また、ドプラ処理部13は、2次元の反射波データから2次元のドプラデータを生成し、3次元の反射波データから3次元のドプラデータを生成する。
 画像生成部14は、Bモード処理部12及びドプラ処理部13が生成したデータから超音波画像データを生成する。すなわち、画像生成部14は、Bモード処理部12が生成した2次元のBモードデータから反射波の強度を輝度で表した2次元Bモード画像データを生成する。また、画像生成部14は、ドプラ処理部13が生成した2次元のドプラデータから移動体情報を表す2次元ドプラ画像データを生成する。2次元ドプラ画像データは、速度画像データ、分散画像データ、パワー画像データ、又は、これらを組み合わせた画像データである。
 ここで、画像生成部14は、一般的には、超音波走査の走査線信号列を、テレビ等に代表されるビデオフォーマットの走査線信号列に変換(スキャンコンバート)し、表示用の超音波画像データを生成する。具体的には、画像生成部14は、超音波プローブ1による超音波の走査形態に応じて座標変換を行なうことで、表示用の超音波画像データを生成する。また、画像生成部14は、スキャンコンバート以外に種々の画像処理として、例えば、スキャンコンバート後の複数の画像フレームを用いて、輝度の平均値画像を再生成する画像処理(平滑化処理)や、画像内で微分フィルタを用いる画像処理(エッジ強調処理)等を行なう。また、画像生成部14は、超音波画像データに、付帯情報(種々のパラメータの文字情報、目盛り、ボディマーク等)を合成する。
 すなわち、Bモードデータ及びドプラデータは、スキャンコンバート処理前の超音波画像データであり、画像生成部14が生成するデータは、スキャンコンバート処理後の表示用の超音波画像データである。なお、Bモードデータ及びドプラデータは、生データ(Raw Data)とも呼ばれる。画像生成部14は、スキャンコンバート処理前の2次元超音波画像データである「2次元Bモードデータや2次元ドプラデータ」から、表示用の2次元超音波画像データである「2次元Bモード画像データや2次元ドプラ画像データ」を生成する。例えば、造影エコー法であるCHIでは、画像生成部14は、「2次元Bモード画像データ」として「2次元造影画像データ」を生成する。なお、CHIでは、画像生成部14は、必要に応じて、「2次元Bモード画像データ」として「2次元組織画像データ」を生成する。
 更に、画像生成部14は、Bモード処理部12が生成した3次元のBモードデータに対して座標変換を行なうことで、3次元Bモード画像データを生成する。また、画像生成部14は、ドプラ処理部13が生成した3次元のドプラデータに対して座標変換を行なうことで、3次元ドプラ画像データを生成する。画像生成部14は、「3次元Bモード画像データや3次元ドプラ画像データ」を「超音波ボリュームデータ」として生成する。例えば、CHIでは、画像生成部14は、「超音波ボリュームデータ」として「造影ボリュームデータ」を生成する。なお、CHIでは、画像生成部14は、必要に応じて、「超音波ボリュームデータ」として「造影ボリュームデータ」及び「組織ボリュームデータ」を生成する。
 更に、画像生成部14は、ボリュームデータをモニタ2にて表示するための各種2次元画像データを生成するために、ボリュームデータに対してレンダリング処理を行なう。画像生成部14が行なうレンダリング処理としては、例えば、断面再構成法(MPR:Multi Planer Reconstruction)を行なってボリュームデータから断面画像データ(MPR画像データ)を生成する処理がある。また、画像生成部14が行なうレンダリング処理としては、例えば、ボリュームレンダリング(VR:Volume Rendering)処理や、MIP(Maximum Intensity Projection)処理等により、VR画像データやMIP画像データ等の投影画像データを生成する処理がある。かかる投影画像データは、3次元の情報を反映した2次元画像データとなる。
 画像メモリ15は、画像生成部14が生成した表示用の画像データを記憶するメモリである。画像メモリ15が記憶する画像データは、例えば、診断の後に操作者が呼び出すことが可能である。また、画像メモリ15は、Bモード処理部12やドプラ処理部13が生成したデータを記憶することも可能である。画像メモリ15が記憶するBモードデータやドプラデータは、例えば、診断の後に操作者が呼び出すことが可能となっており、画像生成部14を経由して表示用の超音波画像データとなる。また、画像メモリ15は、送受信部11が出力したデータも記憶することが可能である。
 検出部16は、穿刺針5が有する位置センサ51により、穿刺針5の針先の位置を検出する。すなわち、検出部16は、位置センサ51が取り付けられる穿刺針5の根元と針先との相対的位置関係の情報を用いることで、穿刺針5の針先の位置を検出する。具体的には、検出部16は、穿刺針5の根元に内蔵された位置センサ51が検出した磁場の情報を受信し、受信した情報に基づいて、穿刺針5の根元の3次元の位置を検出し、更に、穿刺針5の3次元的な方向を検出する。例えば、検出部16は、トランスミッター6を原点とする空間における穿刺針5の根元の3次元の位置を検出する。換言すると、検出部16は、実空間における根元の3次元座標を検出する。そして、検出部16は、穿刺針5の3次元的な方向と穿刺針5の長さとから、トランスミッター6を原点とする空間における穿刺針5の針先の3次元の位置を検出する。すなわち、検出部16は、実空間における針先の3次元座標を検出する。また、検出部16は、穿刺針5の針先の実空間における位置を順次検出して、3次元空間で移動する針先の軌跡を検出することで、穿刺針5の挿入経路の実空間における位置も検出可能である。上記の検出方法では、穿刺針5を用いた穿刺がフリーハンドで行われる場合でも、穿刺針5の針先及び挿入経路を検出可能である。しかし、穿刺針5を用いた穿刺が穿刺アダプタ4に取り付けられて行なわれる場合には、穿刺アダプタ4の情報から得られる穿刺針5の方向が取得可能である。そこで、検出部15は、位置センサ51が検出した情報から、根元の位置を検出し、検出した根元の位置と、穿刺アダプタ4の情報から得られる穿刺針5の方向と、既知の穿刺針5の長さとを用いて、針先の位置を検出することも可能である。また、この場合でも、検出部15は、3次元空間で移動する針先の軌跡を検出することで、穿刺針5の挿入経路の実空間における位置も検出可能である。
 なお、検出部16が穿刺針5の針先の位置を検出可能であるならば、位置センサ51が設置される位置は、穿刺針5における任意の位置であっても良い。また、位置センサ51は、穿刺針5において、複数の位置に設置されても良い。例えば、位置センサ51は、上述したように、穿刺針5の針先に内蔵される場合であっても良い。かかる場合、検出部16は、穿刺針5の針先に内蔵された位置センサ51が検出した磁場の情報を受信し、受信した情報に基づいて、穿刺針5の針先の3次元の位置を検出する。これにより、検出部16は、実空間における針先の3次元座標を検出する。また、検出部16は、穿刺針5の針先の実空間における位置を順次検出して、3次元空間で移動する針先の軌跡を検出することで、穿刺針5の挿入経路の実空間における位置も検出可能である。また、穿刺針5の挿入経路の実空間における位置を検出する場合、位置センサは、穿刺針5と穿刺アダプタ4とにそれぞれ設置される場合であっても良い。
 取得部17は、被検体Pの第1超音波画像データにて設定された関心領域の境界の位置を取得する。本実施形態では、取得部17は、検出部16が検出した針先の位置に基づいて、穿刺針5が挿入された被検体Pの第1超音波画像データにて設定された関心領域の境界の位置を取得する。ここで、上記の第1超音波画像データは、通常Bモードで生成された組織画像データとしての超音波画像データである。例えば、本実施形態では、第1超音波画像データは、被検体Pを3次元走査して生成された第1超音波ボリュームデータであり、第1超音波ボリュームデータは、通常Bモードで生成された組織ボリュームデータである。また、上記の関心領域は、RFA治療を行なう治療計画領域であり、第1超音波ボリュームデータにおいて3次元的に設定される。本実施形態では、取得部17は、関心領域の3次元の位置を、検出部16が検出した針先の3次元の位置に基づいて取得する。なお、検出部16の検出結果に基づいて、取得部17が行なう処理については、後に詳述する。
 内部記憶部18は、超音波送受信、画像処理及び表示処理を行なうための制御プログラムや、診断情報(例えば、患者ID、医師の所見等)や、診断プロトコルや各種ボディマーク等の各種データを記憶する。また、内部記憶部18は、必要に応じて、画像メモリ15が記憶する画像データの保管等にも使用される。なお、内部記憶部18が記憶するデータは、図示しないインターフェース回路を経由して、外部の周辺装置へ転送することができる。
 また、例えば、内部記憶部18は、穿刺アダプタ4に対して穿刺針5が取り付けられる角度を、穿刺針5の挿入角度として記憶する。例えば、内部記憶部18は、穿刺アダプタ4が装着される場合は、穿刺アダプタ4の取り付け角度「A」を、穿刺針5の挿入角度「A」として記憶する。更に、第1の実施形態に係る内部記憶部18は、閾値及び設定情報を記憶する。内部記憶部18が記憶する閾値及び設定情報については、後に詳述する。
 制御部19は、超音波診断装置における処理全体を制御する。具体的には、制御部19は、入力装置3を介して操作者から入力された各種設定要求や、内部記憶部18から読込んだ各種制御プログラム及び各種データに基づき、送受信部11、Bモード処理部12、ドプラ処理部13、画像生成部14、検出部16及び取得部17の処理を制御する。また、制御部19は、画像メモリ15が記憶する超音波画像データ等をモニタ2にて表示するように制御する。
 以上、第1の実施形態に係る超音波診断装置の全体構成について説明した。かかる構成のもと、第1の実施形態に係る超音波診断装置は、穿刺針5を用いたラジオ波焼灼術の確実な治療効果判定を迅速かつ簡便に行なうために、以下に説明する検出部16の検出結果に基づく取得部17の処理と、取得部17の処理結果に基づく画像生成部14の処理を行なう。まず、図2を用いて、第1の実施形態で行なわれるRFA治療のワークフローの一例について説明する。図2は、第1の実施形態で行なわれるRFA治療のワークフローの一例を示すフローチャートである。
 まず、医師は、通常Bモードの超音波ガイド下で、RFA治療のための穿刺を行なう(ステップS1)。ステップS1では、画像生成部14は、通常Bモードでの3次元走査が行なわれることで、第1超音波ボリュームデータを生成する。そして、制御部19の制御により、画像生成部14は、例えば、第1超音波ボリュームデータから、通常断面(A面)の断面画像データと、穿刺針5を含む奥行き方向の断面の断面画像データを生成する。医師は、制御部19の制御によりモニタ2にリアルタイムで更新表示される2断面の画像データを参照しながら、穿刺針5を、被検体Pの治療部位まで挿入する。
 例えば、制御部19は、第1超音波ボリュームデータにおける穿刺針5を含む断面を、内部記憶部18が記憶する挿入角度「A」と、超音波プローブ1と穿刺アダプタ4との3次元的な相対的位置関係とから決定することができる。なお、穿刺針5の穿刺が、フリーハンドで行なわれている場合、穿刺針5を含む奥行き方向の断面は、A面の超音波画像データを参照した医師が、高輝度な直線を指定することで決定することができる。
 ただし、本実施形態では、取得部17が関心領域の位置を正確に取得するために、以下のような処理が行なわれることが好適である。一例として、医師は、超音波プローブ1を被検体Pの体表上で移動させて、腫瘍等の治療部位がA面の断面画像データにて描出され、かつ、A面に穿刺針5の挿入経路が含まれるように超音波プローブ1の位置を調整する。そして、医師は、調整した位置に超音波プローブ1を固定した状態で、穿刺アダプタ4に取り付けた穿刺針5の針先を被検体Pの体表に当接する。この状態で、医師は、例えば、入力装置3が有する確定ボタンを押下する。検出部16は、確定ボタンが押下された時点で位置センサ51から受信した情報から検出した穿刺針5の針先の実空間における位置を初期位置として、取得部17に通知する。
 取得部17は、制御部19から3次元走査領域の形状及び大きさと、超音波プローブ1と穿刺アダプタ4との3次元的な相対的位置関係とを取得する。そして、取得部17は、制御部19から取得した情報から、検出部16が検出した初期位置が、第1超音波ボリュームデータの空間(以下、ボリューム空間と記載する)に対して「どの位置」に対応するかを取得する。これにより、取得部17は、針先の実空間における位置と、針先のボリューム空間における位置との対応付けを行なう。
 なお、根元の位置から針先の位置を検出する際に穿刺針5の方向を穿刺アダプタ4の情報から得ている場合や、穿刺針5の針先に内蔵された位置センサ51から検出部16が針先の位置を検出している場合において、フリーハンドで穿刺が行なわれている場合、ボリューム空間における初期位置は、例えば、穿刺針5を走査領域まで被検体Pに挿入した状態で、超音波画像データを参照した医師が、高輝度な直線の先端を指定することで取得されても良い。また、上記の初期位置は、例えば、穿刺針5の針先や根元を、被検体Pの体表に当接した超音波プローブ1の振動子配列面の両端点に当接することで設定されても良い。これによっても、取得部17は、実空間における位置と、ボリューム空間における位置との対応付けを行なうことができる。
 かかる状態で、医師が穿刺針5を治療部位に向かって挿入すると、検出部16は、穿刺針5の実空間における針先の位置及び移動経路(挿入経路)を検出し、取得部17に通知する。取得部17は、実空間とボリューム空間との対応関係から、検出部16が検出した実空間における針先の位置及び挿入経路を、ボリューム空間における針先の位置及び挿入経路にリアルタイムで変換する。そして、取得部17が取得した情報を受信した制御部19の制御により、画像生成部14は、ステップS1において、「穿刺針5を含むA面の断面画像データ」と、「A面の断面画像データに直交し、かつ、穿刺針5の挿入経路を含む断面の断面画像データ」とを生成する。
 そして、医師は、治療計画領域である関心領域を設定する(ステップS2)。図3は、図1に示す検出部を説明するための図であり、図4及び図5は、図1に示す取得部を説明するための図である。検出部16は、図3に例示するように、治療部位の略中心まで挿入された穿刺針5の針先Aの実空間における3次元座標を検出する。また、検出部16は、図3に例示するように、穿刺針5の実空間における挿入経路Lの3次元座標を検出する。
 取得部17は、検出部16から通知された情報に基づいて、穿刺針5が治療部位の略中心まで挿入された時点での第1超音波ボリュームデータにおいて、針先Aに対応する点A’の位置と、挿入経路Lに対応する線L’の位置とを取得する。そして、取得部17の制御により、画像生成部14は、図4の上図に示すように、第1超音波ボリュームデータからA面の断面画像データを生成し、更に、当該断面画像データに点A’と線L’とを重畳させた画像データを生成する。図4の上図に示す画像データは、モニタ2に表示される。医師は、図4の上図に示す画像データにおいて、関心領域を設定する。例えば、医師は、図4の下図に示すように、点A’の近傍に、治療部位である腫瘍Tを包含し5mm程度のマージンを確保した関心領域の境界M’を設定する。
 ここで、境界M’の形状は、穿刺針5の種類から推定可能である。例えば、穿刺針5が展開型であるか、単針型であるかに応じて、境界M’の形状(3次元形状)は、楕円体や、球体となる。すなわち、関心領域の形状テンプレートは、穿刺針5の種類に応じて定められる。例えば、本実施形態では、内部記憶部18は、穿刺針5の種類に応じた様々な形状のテンプレートを記憶する。医師は、穿刺針5の種類に該当する形状のテンプレートを内部記憶部18から読み出して、画像データ上に表示させる。そして、医師は、テンプレートの中心を、点A’に置き、更に、テンプレートの境界が、腫瘍Tを包含し5mm程度のマージンが確保されるように、テンプレートの移動調整、拡大縮小調整等を行なう。かかる調整では、テンプレートの軸は、線L’に沿って設定される。なお、腫瘍Tの近傍に血管がある場合等は、医師は、近傍の血管の血流による冷却効果を考慮して、テンプレートの調整を行なう。これにより、医師は、関心領域の境界M’を設定する。
 そして、取得部17は、ボリューム空間の針先A’に対する境界M’の相対的位置関係から、図5に例示するように、実空間における境界Mの位置を取得する。すなわち、取得部17は、図5に例示するように、実空間における針先Aの位置及び挿入経路Lの位置とともに、実空間における関心領域の境界Mの位置を取得する。なお、本実施形態は、取得部17が、医師が指定した腫瘍Tの位置に対して、自動で関心領域の境界M’を設定する場合であっても良い。或いは、本実施形態は、例えば、腫瘍Tを輝度情報に基づいて自動検出する機能を有する取得部17が、関心領域の境界M’を自動的に設定する場合であっても良い。
 図2に戻って、医師は、ステップ2で設定した関心領域に対して、RFA治療を行なう(ステップS3)。具体的には、医師は、図示しない治療装置で、穿刺針5の針先温度や、ラジオ波の出力、インピーダンス等をモニタしながら、焼灼治療を進める。
 そして、医師は、造影撮影によりRFA治療効果判定を行なう(ステップS4)。ステップS4では、穿刺針5を用いた治療後に収集された被検体Pの造影画像データを用いた第2超音波画像データが画像生成部14により生成され、モニタ2に表示される。例えば、穿刺針5を用いた治療から所定時間(例えば、約5分)が経過した後に、医師は、造影剤を投与し、関心領域内の血流が無くなっているかを、造影画像データから生成された第2超音波画像データにより、確認する。ここで、所定時間が約5分である場合、穿刺針5の針先位置及び超音波プローブ1の当接位置は、第1超音波ボリュームデータの生成時と同じ位置となる。なお、第2超音波画像データについては、後に詳述する。
 そして、医師は、第2超音波画像データを参照して、焼灼範囲が十分か否かを判定する(ステップS5)。すなわち、医師は、焼灼範囲が不十分、又は、腫瘍血管の残存があるために、追加のRFA治療必要か否かを判定する。ここで、焼灼範囲が十分である場合(ステップS5肯定)、医師は、RFA治療を終了する。
 一方、焼灼範囲が十分でない場合(ステップS5否定)、医師は、第2超音波画像データを参照して、穿刺針5の位置を変更する必要があるか否かを判定する(ステップS6)。ここで、穿刺針5の位置を変更する必要が無い場合(ステップS6否定)、医師は、ステップS3に戻って、追加のRFA治療を行なう。一方、穿刺針5の位置を変更する必要がある場合(ステップS6肯定)、医師は、ステップS1に戻って、追加のRFA治療を行なうために、穿刺針5の位置を移動する穿刺を行なって、ステップS2以降の処理を行なう。
 以下、ステップS4で行なわれる治療効果判定において、第1の実施形態に係る超音波診断装置が行なう処理について詳細に説明する。まず、第1の実施形態に係る画像生成部14は、穿刺針5を用いた治療後に収集された被検体Pの造影前の画像データと造影後の画像データとにおいて、造影前後の輝度値の変化が閾値以上である画素に、当該画素と前記関心領域の境界との距離に応じた画素値を割り当てた第2超音波画像データを生成する。以下、上記の「造影前の画像データ及び造影後の画像データ」を「造影画像データ」と記載する。かかる処理を行なうため、第1の実施形態に係る内部記憶部16は、「輝度値変化に対する閾値」と、「境界からの距離に応じて異なる画素値とが設定された設定情報」とを記憶する。具体的には、内部記憶部18は、上記の設定情報として、「境界からの距離に応じて異なる色が設定された色情報」を記憶する。より具体的には、第1の実施形態に係る内部記憶部18は、境界の内側においては第1色調で該境界からの距離に応じて異なる色が設定され、境界の外側においては前記第1色調とは異なる第2色調で該境界からの距離に応じて異なる色が設定された色情報を、上記の設定情報として記憶する。また、第1の実施形態に係る内部記憶部18は、輝度値変化に対する閾値として、一律の値(TH)を記憶する。閾値(TH)は、造影剤の流入の有無を判定するために用いられる閾値である。
 そして、画像生成部14は、設定情報に基づいて、第2超音波画像データを生成する。本実施形態では、画像生成部14は、色情報に基づいて、第2超音波画像データを生成する。すなわち、画像生成部14は、穿刺針5を用いた治療後に収集された被検体Pの造影画像データにおいて、造影前後の輝度値の変化が閾値(TH)以上である画素に、当該画素と関心領域の境界との距離とに対応する色を色情報に基づいて割り当てた第2超音波画像データを生成する。ここで、第1の実施形態では、「造影前の画像データ及び造影後の画像データである造影画像データ」は、被検体Pを3次元走査して生成された造影ボリュームデータである。
 このため、第1の実施形態に係る画像生成部14は、造影ボリュームデータにおいて、造影前後の輝度値の変化が閾値(TH)以上であるボクセルに、当該ボクセルと関心領域の境界との距離に対応するボクセル値を設定情報に基づいて割り当てた第2超音波ボリュームデータを第2超音波画像データとして生成する。設定情報が上記の色情報であることから、画像生成部14は、閾値に基づいて検出されたボクセルに、当該ボクセルと関心領域の境界との距離に対応する色を色情報に基づいて割り当てた第2超音波ボリュームデータを第2超音波画像データとして生成する。なお、上述したように、造影ボリュームデータは、第1超音波ボリュームデータの生成時と同じ位置で超音波プローブ1により3次元走査されることで生成されたボリュームデータである。すなわち、造影ボリュームデータの各ボクセルは、第1超音波ボリュームデータの各ボクセルと同一のボリューム空間上の3次元座標で表現される。
 ここで、取得部17は、造影ボリュームデータを構成する各ボクセルと境界M’との距離を取得可能であることから、造影ボリュームデータを構成する各ボクセルの実空間における位置と境界Mとの距離を取得可能である。また、取得部17は、造影ボリュームデータを構成する各ボクセルと境界M’との相対的な位置関係を取得可能であることから、ボリューム空間にて関心領域の内側と外側とを判別可能である。更に、取得部17は、造影ボリュームデータを構成する各ボクセルの実空間における位置が関心領域の内側であるか外側であるのかを判定することができる。そこで、取得部17の制御に基づいて、画像生成部14は、第2超音波画像データ(第2超音波ボリュームデータ)を生成する。図6A、図6B及び図7~図10は、第1の実施形態に係る画像生成部を説明するための図である。
 例えば、内部記憶部18が記憶する色情報は、図6Aに示すように、関心領域の境界Mからの距離「d」に応じて、異なる色が対応付けられている。図6Aに示す色情報では、関心領域の境界Mでは「d=0」であり、関心領域の内側では「d<0」であり、関心領域の外側では「d>0」である極性が設定されている。そして、図6Aに示す色情報では、「d<0」では、「dの絶対値」に応じて、第1色相の明度が変化した色調(R1、R2、R3)が割り当てられ、「d>0」では、「dの絶対値」に応じて、第2色相の明度が変化した色調(B1、B2)が割り当てられている。例えば、第1色相は、赤色系であり、第2色相は、青色系である。或いは、第2色相は、グレースケールである。関心領域内部への造影剤流入は、腫瘍の残存を意味するので、第1色相は、赤色系のように、医師に注意を促す色相であることが好適である。なお、図6A及び図6B等では、作図上、B2の色が白色となっているが、実際には、例えば、B1より薄い青色となっている。
 かかる色情報では、例えば、関心領域が球体である場合、図6Bに示すように、関心領域の境界Mから距離に応じて、関心領域内には球状の境界M1及び境界M2が設定され、関心領域外には球状の境界M3が設定される。
 取得部17は、造影前のボリュームデータ(例えば、関心領域が設定された時点において、造影エコー法で取得された超音波ボリュームデータ)を構成する各ボクセルの輝度値を、造影前の輝度値「I0」として取得する。そして、取得部17は、造影エコー法で生成された造影後の画像データである造影ボリュームデータを構成する各ボクセルの輝度値「I」を取得する。すなわち、第1超音波ボリュームデータは、Bモードにより取得されたデータであることから、造影エコー法で生成された造影ボリュームデータの比較対象としては適していない。このため、関心領域が設定された後、例えば、造影剤を投与する前に、造影エコー法により超音波ボリュームデータを取得し、このボリュームデータを、造影前の画像データとし、造影剤投与後に造影エコー法で生成された造影ボリュームデータの比較対象とすることが好適である。そして、取得部17は、同一ボクセルについて、輝度値変化「I-I0」を算出し、算出した値をモニタリングする。例えば、取得部17は、全ボクセルについて、輝度値変化をモニタリングする。そして、取得部17は、「I-I0≧TH」となったボクセルの位置を実空間の位置に変換し、当該ボクセルの実空間における位置と境界Mとの距離及び位置関係を取得する。そして、取得部17は、取得した距離及び位置関係に対応する色を、図6Aに例示する色情報から取得し、取得した色を割り当てたボリュームデータを生成するように、画像生成部14を制御する。
 例えば、画像生成部14は、図6Bに示すように、「I-I0≧TH」となったボクセルの実空間位置が境界M1内である場合、当該ボクセルに色調「R1」を割り当てる。また、例えば、画像生成部14は、図6Bに示すように、「I-I0≧TH」となったボクセルの実空間位置が境界M1と境界M2との間である場合、当該ボクセルに色調「R2」を割り当てる。また、例えば、画像生成部14は、図6Bに示すように、「I-I0≧TH」となったボクセルの実空間位置が境界M2と境界Mとの間である場合、当該ボクセルに色調「R3」を割り当てる。
 また、例えば、画像生成部14は、図6Bに示すように、「I-I0≧TH」となったボクセルの実空間位置が境界Mと境界M3との間である場合、当該ボクセルに色調「B1」を割り当てる。また、例えば、画像生成部14は、図6Bに示すように、「I-I0≧TH」となったボクセルの実空間位置が境界M3の外側である場合、当該ボクセルに色調「B2」を割り当てる。
 これにより、画像生成部14は、図7に例示する第2超音波ボリュームデータを生成する。例えば、画像生成部14は、図7に例示するように、境界M’を重畳した第2超音波ボリュームデータを生成する。なお、図7に示す第2超音波ボリュームデータは、作図上、2次元の画像データとなっているが、実際には、3次元の画像データである。なお、上記の閾値は、例えば、医師等が経験的に求めた値が設定される。また、上記では、輝度値変化に対する閾値として、輝度値に対応する値が設定される場合について説明した。しかし、本実施形態は、輝度値変化に対する閾値として、例えば、「5dB」等、輝度値変化の度合いを示す値が設定される場合であっても良い。かかる場合、取得部17は、例えば、モニタ2に画像を出力するためのガンマカーブに基づいて、デ「I-I0」をシベル値に変換して、変換したデシベル値と閾値との比較処理を行なう。
 ここで、造影エコー法では、造影ボリュームデータが時系列に沿って生成される。画像生成部14は、取得部17の制御により、造影ボリュームデータが生成されるごとに、第2超音波ボリュームデータを生成しても良いし、造影期間中に生成された全造影ボリュームデータにおいて、輝度値変化が閾値以上となった全ボクセルを用いて第2超音波ボリュームデータを生成しても良い。
 すなわち、本実施形態は、第2超音波ボリュームデータが時系列に沿って生成される場合であっても良いし、造影期間中に閾値以上となった全ボクセルの位置が保持された保持型の第2超音波ボリュームデータを生成する場合であっても良い。或いは、本実施形態は、造影期間を複数の期間に分割し、各分割期間で閾値以上となった全ボクセルの位置が保持された保持型の第2超音波ボリュームデータを生成する場合であっても良い。
 そして、制御部19は、第2超音波画像データをモニタ2に表示させる。本実施形態では、第2超音波画像データがボリュームデータ(第2超音波ボリュームデータ)として生成されることから、制御部19は、第2超音波ボリュームデータから生成された断面画像データ又は投影画像データの少なくとも1つをモニタ2に表示させる。
 例えば、画像生成部14は、制御部19の制御により、図7に例示する第2超音波ボリュームデータを、奥行き方向に沿った複数のA面で切断する。これにより、画像生成部14は、図8に示すように、複数のA面のMPR画像データを生成する。モニタ2は、図8に例示する複数のMPR画像データを表示する。腫瘍血管が空間的に不均一であったり、比較的大きい血管による冷却効果があったりすると、焼灼が計画通りに行なわれていない場合がある。このため、図8に例示する複数断面を表示することで、医師は、多断面での効果判定を行なうことができる。
 或いは、制御部19は、関心領域に限定して第2超音波画像データを表示させる。又は、制御部19は、関心領域に限定した第2超音波画像データに穿刺針5の位置を重畳表示させる。第2超音波画像データが第2超音波ボリュームデータとして生成される本実施形態では、画像生成部14は、制御部19の制御により、第2超音波ボリュームデータから関心領域内のボリュームデータを抽出し、抽出したボリュームデータを所定方向に投影した投影画像データを生成する。投影画像データは、VR画像データやMIP画像データである。例えば、画像生成部14は、抽出したボリュームデータに上述した点A’及び線L’を重畳したボリュームデータに対してMIP処理を行なうことで、図9に例示するMIP画像データを生成する。
 或いは、制御部19は、第2超音波ボリュームデータにおいて穿刺針5の針先を含み、かつ、穿刺針5の挿入経路に直交する断面で第2超音波ボリュームデータを切断した断面画像データを表示させる。ここで、制御部19は、この断面画像データを関心領域に限定した断面画像データとしても良い。例えば、画像生成部14は、制御部19の制御により、第2超音波ボリュームデータから関心領域内のボリュームデータを抽出する。また、取得部17は、抽出されたボリュームデータにおいて、上述した点A’を含み、かつ、線L’に直交する断面の位置を取得する。画像生成部14は、抽出したボリュームデータを、取得部17が取得した断面で切断することで、図10に例示するMPR画像データを生成する。なお、図9及び図10に例示する画像データには、境界M’に対応する円が点線で重畳されている。かかる点線は、画像生成部14により描画される。
 なお、モニタ2に表示される表示用画像データは、上述したように、第2超音波ボリュームデータから生成された2次元画像データに限定されるものではない。例えば、制御部19は、被検体Pの組織が描出された超音波画像データ及び被検体Pの造影剤分布が描出された超音波画像データの少なくとも1つと、第2超音波ボリュームデータから生成された2次元画像データとを重畳した画像データをモニタ2に表示させても良い。被検体Pの組織が描出された超音波画像データは、例えば、第1超音波ボリュームデータや造影ボリュームデータの生成元である3次元反射波データから生成された基本波のボリュームデータである。また、被検体Pの造影組織が描出された超音波画像データは、第2超音波ボリュームデータの生成に用いた造影ボリュームデータである。
 例えば、画像生成部14は、取得部17の位置合わせ指示により、第2超音波ボリュームデータと重畳対象となるボリュームデータとを合成したボリュームデータを用いて、MPR処理、VR処理、MIP処理等を行なうことで、重畳画像データを生成する。なお、画像生成部14は、例えば、重畳対象となるボリュームデータの不透明度を下げたうえで、ボリュームデータを合成する。
 上述した各種の表示用画像データは、第2超音波ボリュームデータが時系列に沿って複数生成される場合、各第2超音波ボリュームデータから生成される。また、上述した各種の表示用画像データは、保持型の第2超音波ボリュームデータが1つ生成される場合、1つの第2超音波ボリュームデータから生成される。また、上述した各種の表示用画像データは、保持型の第2超音波ボリュームデータが複数生成される場合、複数の第2超音波ボリュームデータそれぞれから生成される。
 このように、第2超音波画像データは、焼灼治療後に残存している血流と、関心領域の境界との位置関係を、治療効果判定を行なう医師が把握するために提供される画像データである。上記では、かかる画像データを生成するための設定情報として、境界からの距離に応じて異なる色が設定された色情報を用いる場合について説明した。しかし、焼灼治療後に残存している血流と、関心領域の境界との位置関係を提示するための設定情報は、上記の色情報に限定されるものではない。例えば、境界からの距離に応じて異なる画素値が設定された設定情報は、境界からの距離に応じて異なるハッチングが設定されたハッチング情報であっても良い。或いは、設定情報は、境界からの距離に応じて同系色で異なる濃淡が設定された濃淡情報であっても良い。例えば、濃淡情報は、境界からの距離に応じてグレースケールで異なるグラデーションが設定された濃淡情報であっても良い。
 次に、図11を用いて、第1の実施形態に係る超音波診断装置が行なう処理の一例について説明する。図11は、第1の実施形態に係る超音波診断装置が行なう処理の一例を示すフローチャートである。なお、図11は、図2に例示したステップS4において、超音波診断装置が行なう処理の一例を示すフローチャートである。
 図11に例示するように、第1の実施形態に係る超音波診断装置の取得部17は、造影ボリュームデータが収集されたか否かを判定する(ステップS101)。ここで、造影ボリュームデータが収集されていない場合(ステップS101否定)、取得部17は、造影ボリュームデータが収集されるまで待機する。
 一方、造影ボリュームデータが収集された場合(ステップS101肯定)、取得部17は、造影ボリュームデータにおける関心領域の位置を取得する。そして、画像生成部14は、取得部17の制御により、輝度値が閾値以上上昇したボクセルに、当該ボクセルと関心領域との距離に対応する色を割り当てた第2超音波ボリュームデータを生成する(ステップS102)。
 そして、画像生成部14は、制御部19の制御により、少なくとも第2超音波ボリュームデータを用いた表示用画像データを生成する(ステップS103)。そして、モニタ2は、制御部19の制御により、表示用画像データを表示し(ステップS104)、処理を終了する。
 上述したように、第1の実施形態では、針先の位置を位置センサ51で正確かつ簡便に検出することで、針先の位置及び穿刺針5の種類に基づいて設定された関心領域の境界位置を実空間及びボリューム空間で正確かつ簡便に取得することができる。そして、第1の実施形態では、カラーマップ(色情報)の基準を関心領域の境界(治療計画領域の境界)とし、正確に取得した関心領域の境界位置に基づいて、治療計画領域内や治療計画領域近傍への造影剤流入を異なる色相で強調された表示用画像データを、迅速に生成表示することができる。そして、医師は、造影剤流入を異なる色相で強調された表示用画像データを参照することで、血流の残存部位を容易に視認することができる。従って、第1の実施形態では、ラジオ波焼灼術の確実な治療効果判定を迅速かつ簡便に行なうことができる。
 なお、第1の実施形態では、以下に説明する変形例を行なっても良い。図12A、図12B、図13A及び図13Bは、第1の実施形態に係る変形例を説明するための図である。
 第1変形例では、制御部19は、更に、関心領域内の輝度値の時間にともなう変化を示す時間変化曲線を表示させる。すなわち、造影ボリュームデータは、時系列に沿って複数生成されることから、例えば、制御部19は、関心領域内の時間変化曲線を生成することができる。そこで、制御部19は、図12Aに例示するように、関心領域内の輝度(Intensity)を時間(time)に沿ってプロットした時間変化曲線を生成して、画像データとともに表示させる。なお、制御部19は、関心領域内の平均輝度値をプロットした1つの時間変化曲線を生成しても、関心領域内の複数のボクセルそれぞれの輝度値をプロットした複数の時間変化曲線を生成しても良い。或いは、制御部19は、関心領域内の複数の領域(境界M1内、境界M1と境界M2とで挟まれる領域、境界M2と境界Mとで挟まれる領域等)それぞれの平均輝度値をプロットした複数の時間変化曲線を生成しても良い。また、制御部19は、関心領域外の時間変化曲線を生成しても良い。
 或いは、第1変形例では、制御部19は、更に、関心領域内で画素値が割り当てられた領域の該関心領域に対する割合を表示させる。設定情報として色情報が用いられる場合、制御部19は、関心領域内で色が割り当てられた領域の該関心領域に対する割合を表示させる。例えば、制御部19は、関心領域内で輝度値変化が閾値以上となったボクセル数を、関心領域のボクセル数で除算することで、割合を算出し、モニタ2に表示させても良い。例えば、制御部19は、図12Bに示すように、関心領域の体積に対する関心領域内の造影剤流入体積の割合「5%」を算出して、モニタ2に表示させる。なお、上記の割合は、関心領域全体に対して算出される場合であっても、関心領域内の複数の領域それぞれに対して算出される場合であっても良い。また、制御部19は、関心領域外の領域において、割合を算出しても良い。また、上記の割合は、第2超音波ボリュームデータが複数生成される場合、各第2超音波ボリュームデータから算出される。
 このような時間変化曲線や割合を参照することで、医師は、更に、RFA治療の効果判定を、客観的かつ効率的に行なうことができる。
 第2変形例では、画像生成部14は、関心領域の内部、又は、関心領域の内部及び関心領域の境界近傍の外側に限局した領域にて第2超音波画像データを生成する。例えば、図13Aに例示するように、取得部17は、境界Mの内部に限定して、第2超音波ボリュームデータを生成するように、画像生成部14を制御する。或いは、図13Bに例示するように、画像生成部14は、境界Mの外側の境界である境界M3の内部に限定して、第2超音波ボリュームデータを生成する。すなわち、第2変形例では、造影剤による輝度上昇の監視領域を限局することで、第2超音波ボリュームデータの生成処理における負荷を軽減することができる。
 なお、第1の実施形態で説明した処理は、位置センサ51及び検出部16を用いずに行われる場合であっても良い。上述したように、治療効果判定用の画像データである第2超音波ボリュームデータは、実空間における距離を元に設定された設定情報に基づいて、生成される。すなわち、ボリューム空間における距離を実空間における距離に変換することが可能であれば、画像生成部14は、第2超音波ボリュームデータを生成することができる。ここで、送受信部11、Bモード生成部12及び画像生成部14を制御する制御部19は、超音波の走査領域の形状及び大きさと、超音波画像データの形状及び大きさとの対応関係を取得可能である。また、かかる対応関係から、制御部19は、ボリューム空間における距離を実空間における距離に変換するための変換情報を取得可能である。
 そこで、例えば、取得部17は、上記の変換情報を、制御部19から取得する。そして、例えば、取得部17は、取得した変換情報を用いて、輝度値の変化が閾値以上である画素と境界との距離を、実空間における距離に変換する。そして、取得部17は、変換後の距離から当該画素に割り当てる色を取得する。このような処理によっても、画像生成部14は、上記の第2超音波ボリュームデータを生成表示することが可能となる。
(第2の実施形態)
 第1の実施形態では、関心領域(治療計画領域)内外への造影剤流入に関する情報を、境界からの距離に応じた色を割り当てた色情報を用いて強調表示する際に、輝度値上昇に対する閾値を、一律の値とする場合について説明した。第2の実施形態では、造影剤による輝度上昇に対する閾値が一律ではない場合について、図14を用いて説明する。図14は、第2の実施形態を説明するための図である。
 第2の実施形態に係る内部記憶部18は、輝度値変化に対する閾値として、境界からの距離に応じて異なる値の複数の閾値を記憶する。例えば、内部記憶部18は、図14に例示するように、図6の(A)に例示する色調「R1、R2、R3」を割り当てる距離「d<0」の関心領域内では、一律の閾値「TH1」が設定された情報を記憶する。また、例えば、内部記憶部18は、図14に例示するように、図6の(A)に例示する色調「B1」を割り当てる距離「d>0」の関心領域外では、TH1より大きい一律の閾値「TH2」が設定された情報を記憶する。
 そして、例えば、内部記憶部18は、図14に例示するように、図6の(A)に例示する色調「B2」を割り当てる距離「d>0」の関心領域外では、dに比例して閾値がTH2からTH3へと一次関数で増大する閾値が設定された情報を記憶する。なお、距離に応じた閾値は、操作者により任意に設定可能である。
 そして、第2の実施形態に係る画像生成部14は、関心領域の境界からの距離に対応する閾値以上となった画素に、当該画素と関心領域の境界との距離とに対応する色を色情報に基づいて割り当てて第2超音波画像データを生成する。第2の実施形態では、第1の実施形態と同様に、3次元走査が行なわれる。従って、第2の実施形態に係る画像生成部14は、関心領域の境界からの距離に対応する閾値以上となったボクセルに、当該ボクセルと関心領域の境界との距離とに対応する色を色情報に基づいて割り当てて第2超音波ボリュームデータを生成する。なお、第2の実施形態においても、色情報以外の設定情報(ハッチング情報や、濃淡情報)を用いて、境界からの距離に応じた画素値を割り当てることで、第2超音波ボリュームデータを生成しても良い。
 そして、第2の実施形態においても、第1の実施形態で説明した表示用画像データや、時間変化曲線、割合が表示される。なお、閾値が境界との距離に応じて変化する以外、第1の実施形態で説明した内容は、第2の実施形態においても適用される。また、第2の実施形態に係る超音波診断装置の処理は、図11で説明したステップS102の処理が、例えば、図14に示す設定情報を用いた閾値判定が行なわれる以外、第1の実施形態と同様であるので、説明を省略する。
 RFA治療の効果判定では、関心領域内の造影剤流入の有無が重要であるが、関心領域外側であっても、近傍に比較的大きな血管があれば冷却効果をもたらし、治療に影響する場合がある。図14に例示する設定情報は、関心領域の外側近傍に位置する比較的大きな血管の視認性を向上させるためのカラーマップの一例となる。
 第2の実施形態では、かかるカラーマップを用いて、関心領域外側であっても輝度上昇が大きい血管を強調表示することで、医師による関心領域設定の妥当性確認や、追加治療計画の補助となりうる情報を提供することができる。なお、第2の実施形態は、関心領域内においても、距離に応じて、複数の閾値が設定される場合であっても良い。
(第3の実施形態)
 第3の実施形態では、穿刺針5が抜かれた後に造影画像データ(造影ボリュームデータ)が収集される場合の処理について、図15A及び図15Bを用いて説明する。図15A及び図15Bは、第2の実施形態を説明するための図である。
 すなわち、第1及び第2の実施形態では、図2に示すステップS4において、穿刺針5の位置が固定された状態で、造影ボリュームデータが収集される場合について説明した。かかる場合、第1ボリュームデータと造影ボリュームデータとの位置関係は、一意に特定可能である。しかし、RFA治療の効果判定は、5分後等の短期間の後に行なわれる場合だけでなく、例えば、5日後等、数日の後に行なわれる場合がある。かかる場合、穿刺針5が挿入されていない状態で収集された造影ボリュームデータを用いて、医師は、治療効果の判定を行なって、ステップS5やステップS6の判定を行なう必要がある。
 そこで、第3の実施形態に係る取得部17は、穿刺針5が抜かれた後に造影画像データ(造影ボリュームデータ)が収集される場合、第1超音波画像データ(第1超音波ボリュームデータ)と造影画像データ(造影ボリュームデータ)との位置合わせを行なう。そして、第3の実施形態に係る取得部17は、位置合わせの結果から、造影画像データ(造影ボリュームデータ)における関心領域に対応する対応領域の位置を取得する。具体的には、取得部17は、第1超音波画像データ(第1超音波ボリュームデータ)にて関心領域の周囲に描出された構造物に基づく位置合わせを行なう。
 例えば、取得部17は、図15Aに示すように、第1超音波ボリュームデータにおいて、関心領域の境界Mに対応する境界M’の近傍に位置する門脈や肝動脈の位置を取得する。第1超音波ボリュームデータの門脈や肝動脈の位置は、例えば、医師や技師等により指定される場合であってもよいし、輝度値の情報から、取得部17が取得する場合であっても良い。そして、取得部17は、造影ボリュームデータにおける門脈や肝動脈の位置を取得する。造影ボリュームデータの門脈や肝動脈の位置は、例えば、医師や技師等により指定される場合であってもよいし、輝度値の情報から、取得部17が取得する場合であっても良い。
 これにより、取得部17は、第1超音波ボリュームデータと造影ボリュームデータとの位置合わせを行なう。或いは、取得部17は、位置センサの下、血管等の構造体の位置情報を用いて第1超音波ボリュームデータと造影ボリュームデータとの初期的な位置合わせを行ない、更に、一方のボリュームデータを微小距離移動させながら他方のボリュームデータとの位置合わせを完了する。
 すなわち、穿刺針5が抜かれた後に造影ボリュームデータを収集する際には、位置合わせを正確に行なうため、例えば、医師は、位置センサ51を有する穿刺針5を、超音波プローブ1が当接される体表に穿刺針5の針先を当接する。なお、造影ボリュームデータの収集時に超音波プローブ1が当接される体表の位置は、通常、第1超音波ボリュームデータが収集された位置となるように調整される。これにより、検出部15は、針先の位置を検出する。この時に針先が当接される位置は、治療用の穿刺が行なわれた際に、穿刺針5が挿入された体表の位置と略同一位置であることが好適である。これにより、取得部17は、造影ボリュームデータ収集時の針先の位置を取得することができる。一方、取得部17は、上述したように、RFA治療時にて、穿刺針5が挿入された体表の位置を取得しておくことが可能である。取得部17は、検出部15が検出した治療前後での位置情報を用いて、初期的に行なった位置合わせを修正する。これにより、取得部17は、第1超音波ボリュームデータと造影ボリュームデータとの正確な位置合わせを行なうことができる。
 或いは、例えば、医師は、位置センサが取り付けられた超音波プローブ1を用いて、穿刺針5が抜かれた後の造影ボリュームデータを収集する場合であっても良い。検出部15は、超音波プローブ1に取り付けられた位置センサを用いて、超音波プローブ1の当接位置を検出可能である。取得部17は、第1超音波ボリュームデータ収集時の穿刺針5の挿入位置と、造影ボリュームデータ収集時における超音波プローブ1の当接位置とから、第1超音波ボリュームデータと造影ボリュームデータとの位置合わせを正確に行なうことが可能である。なお、造影ボリュームデータ収集時における超音波プローブ1の当接位置を用いる場合、第1超音波ボリュームデータ収集時にも、超音波プローブ1に位置センサを取り付けておいても良い。これによっても、取得部17は、第1超音波ボリュームデータと造影ボリュームデータとの位置合わせを正確に行なうことが可能である。位置センサを用いて位置合わせを行なう場合、関心領域の周囲に描出された構造物に基づく初期位置合わせは、行なわない場合であっても良い。
 なお、位置合わせ処理は、血管等の構造体を用いる場合だけでなく、治療前後の略同一時相の造影ボリュームデータ、又は、治療前後の組織ボリュームデータに対して、相互情報量や、画像相関等の公知の技術を用いて行なわれる場合であっても良い。かかる場合には、例えば、医師は、第1超音波ボリュームデータ収集後に、第1超音波ボリュームデータと同一の3次元走査領域で、RFA治療前の造影ボリュームデータを収集しておく。RFA治療前の造影ボリュームデータは、例えば、血管構造が染影される動脈相の造影ボリュームデータである。そして、取得部17は、RFA治療後に穿刺針5が抜かれた状態で収集された造影ボリュームデータ群から、RFA治療前の造影ボリュームデータと同一時相の造影ボリュームデータを取得する。そして、取得部17は、これら2つの造影ボリュームデータの位置合わせを、相互情報量や、画像相関等を用いた手法により行なう。これにより、取得部17は、第1超音波ボリュームデータと造影ボリュームデータとの位置合わせを正確に行なうことが可能である。
 或いは、例えば、医師は、RFA治療後の造影ボリュームデータを収集する前に、Bモードにより組織ボリュームデータを収集する。そして、取得部17は、第1超音波ボリュームデータと組織ボリュームデータとの位置合わせを、相互情報量や、画像相関等を用いた手法により行なう。これにより、取得部17は、第1超音波ボリュームデータと造影ボリュームデータとの位置合わせを正確に行なうことが可能である。なお、相互情報量や、画像相関等を用いた手法を行なう場合にも、上記の位置センサを用いた位置合わせを更に行なっても良い。
 そして、取得部17は、位置合わせの結果から、図15Bの左図に示すように、造影ボリュームデータのボリューム空間における対応領域の境界MA’の位置を取得する。ここで、取得部17は、関心領域の設定時等において、第1超音波ボリュームデータのボリューム空間と実空間との対応付けを行なっている。また、取得部17は、位置合わせにより、造影ボリュームデータのボリューム空間と第1超音波ボリュームデータのボリューム空間との対応付けを完了している。従って、取得部17は、図15Bの右図に示すように、造影ボリュームデータのボリューム空間における対応領域の境界MA’の位置から、実空間における対応領域の境界MAの位置を取得することができる。
 そして、第3の実施形態に係る画像生成部14は、対応領域の境界の位置に基づいて、第2超音波画像データ(第2超音波ボリュームデータ)を生成する。
 そして、第3の実施形態においても、第1の実施形態で説明した表示用画像データや、時間変化曲線、割合が表示される。なお、造影ボリュームデータにおける関心領域に対応する領域の境界位置が、位置合わせ処理により取得される以外、第1及び第2の実施形態で説明した内容は、第3の実施形態においても適用される。また、第3の実施形態に係る超音波診断装置の処理は、図11で説明したステップS102の処理が、対応領域の境界を用いて行なわれる以外、第1の実施形態と同様であるので、説明を省略する。
 第3の実施形態では、穿刺針5が抜かれた状態で治療効果の判定が行なわれる場合であっても、関心領域の位置を正確に取得しておくことで、位置合わせ処理の結果から造影ボリュームデータにおける対応領域の位置を正確に取得することができる。また、第3の実施形態で行なわれる位置合わせ処理は、超音波ボリュームデータ間の位置合わせであるため、他種のボリュームデータ間の位置合わせと比較して、正確かつ迅速に行なうことができる。従って、第3の実施形態では、ラジオ波焼灼術の確実な治療効果判定を、任意の時期において、迅速かつ簡便に行なうことができる。
(第4の実施形態)
 第4の実施形態では、穿刺針5を用いた治療が、穿刺針5の位置を変更して複数回行なわれる場合に適用される変形例について、図16等を用いて説明する。図16は、第4の実施形態を説明するための図である。
 RFA治療では、通常、穿刺針5の位置を変更して、焼灼が複数回行なわれる。上述した第1及び第2の実施形態では、ステップS6で穿刺針5の位置を変更する必要があると判定された場合、ステップS1~ステップS4の処理が再度実行される。かかる場合、穿刺針5の位置が変更された後、ステップS2で新たな関心領域が設定される。そして、新たな関心領域の境界を用いて、治療効果判定用の画像データの生成表示が行なわれる。
 しかし、医師にとっては、現時点で設定した関心領域に、過去に設定した1つ又は複数の関心領域を併せて治療効果判定を行なうことが望ましい。
 そこで、第4の実施形態に係る取得部17は、穿刺針5を用いた治療が、穿刺針5の位置を変更して複数回行なわれる場合、各治療において設定された複数の関心領域を合成した合成領域の境界の位置を取得する。そして、第5の実施形態に係る画像生成部14は、合成領域の境界の位置に基づいて、第2超音波画像データを生成する。
 図16の左図に示す「L(1st)」は、1回目の焼灼治療で穿刺針5が挿入された実空間における挿入経路を示す。また、図16の左図に示す「M(1st)」は、「挿入経路L(1st)の先端(穿刺針5の針先)」の位置に基づいて設定された関心領域の実空間における境界の位置を示す。また、図16の中図に示す「L(2nd)」は、1回目の焼灼治療が不十分であったため、焼灼する位置を変更するために2回目の焼灼治療で穿刺針5が挿入された実空間における挿入経路を示す。また、図16の中図に示す「M(2nd)」は、「挿入経路L(2nd)の先端(穿刺針5の針先)」の位置に基づいて設定された関心領域の実空間における境界の位置を示す。
 かかる場合、取得部17は、図16の右図に示すように、境界M(1st)と境界M(2nd)とを合成した合成境界CMの位置を取得する。また、取得部17は、実空間の合成境界CMに対応するボリューム空間の合成境界の位置も取得する。
 そして、取得部17は、1つの閾値(又は、複数の閾値)と、設定情報とを用いて、第2超音波画像データ(第2超音波ボリュームデータ)を生成するように、画像生成部14を制御する。そして、画像生成部14は、第1の実施形態で説明した様々な表示用画像データを、第2超音波ボリュームデータを用いて生成し、モニタ2に出力する。例えば、モニタ2は、合成境界に基づく第2超音波ボリュームデータから生成されたMPR画像データに、境界M(1st)及び境界M(2nd)の位置を示す線が重畳された画像データを表示する。
 上述したように、第4の実施形態では、合成境界を用いた第2超音波画像データを生成表示することで、複数回行なったラジオ波焼灼術の治療効果判定を、総合的に迅速かつ簡便に行なうことができる。なお、本実施形態の変形例として、制御部19は、例えば、第2超音波画像データの生成表示については、最新の関心領域の境界位置に基づいて実行させ、当該第2超音波画像データを生成表示させる際に、前回や前々回の関心領域の境界を点線により表示させても良い。
(第5の実施形態)
 第5の実施形態では、上述した第1~第4の実施形態に適用可能な設定情報の変形例について、図17及び図18等を用いて説明する。図17及び図18は、第5の実施形態を説明するための図である。
 上述した第1~第4の実施形態では、造影前後の輝度値の変化が前記閾値以上である画素に、当該画素と関心領域の境界との距離に応じた画素値(例えば、色)を割り当てることで、第2超音波画像データ(第2超音波ボリュームデータ)を生成する。かかる第2超音波画像データを参照することで、医師は、関心領域内や関心領域外で残存している血流の有無を判定することができる。ここで、治療効果を判定する医師にとって、焼灼治療後に残存している血流が、血管内(例えば、腫瘍の栄養血管内)を流動している血流であるのか、毛細血管からを介して組織内を流動している灌流(perfusion)であるのを判断することも重要である。
 造影撮影では、血管内に造影剤が流動した後に、毛細血管内に造影剤が流動する。すなわち、造影撮影では、血管内で輝度値が上昇した後に、毛細血管内で輝度値が上昇する。そこで、第5の実施形態に係る画像生成部14は、造影前後の輝度値の変化が閾値以上である画素に、当該画素と関心領域の境界との距離、及び、当該画素で輝度値の変化が閾値以上となった時間に応じた画素値を割り当てて、第2超音波画像データを生成する。例えば、内部記憶部16は、境界からの距離、及び、時間に応じて異なる画素値が設定された設定情報を記憶する。一例として、内部記憶部16は、境界からの距離、及び、時間に応じて異なる色が設定された色情報を記憶する。換言すると、上記の色情報は、図6Aや図14に示す色情報に、時間軸を追加した色情報となる。
 例えば、内部記憶部16は、図17に示すように、色調「R1」の不透明度が、時間(t)とともに低下する色情報を記憶する。取得部16は、図17に例示する色情報を用いて、第2超音波画像データ(第2超音波ボリュームデータ)を画像生成部14に生成させる。かかる処理により生成された第2超音波画像データでは、早く閾値を越えた位置の画素ほど、不透明度が高い色で描出され、遅く閾値を越えた位置の画素ほど、透明度が高い色で描出されることになる。医師は、同じ色調であっても、透明度を把握することで、血流と灌流とを判別することができる。
 また、造影撮影では、血管内で輝度値の上昇度合いが高く、毛細血管内で輝度値の上昇度合いが低い。そこで、第5の実施形態に係る画像生成部14は、造影前後の輝度値の変化が閾値以上である画素に、当該画素と関心領域の境界との距離、及び、当該画素における輝度値の変化量に応じた画素値を割り当てて、第2超音波画像データを生成する。例えば、内部記憶部16は、境界からの距離、及び、時間に応じて異なる画素値が設定された設定情報を記憶する。一例として、内部記憶部16は、境界からの距離、及び、輝度値の変化量(dI=I-I0)に応じて異なる色が設定された色情報を記憶する。換言すると、上記の色情報は、図6Aや図14に示す色情報に、変化量の軸を追加した色情報となる。
 例えば、内部記憶部16は、図18に示すように、色調「R1」の透明度が、輝度値の変化量(dI)の増大とともに低下する色情報を記憶する。取得部16は、図17に例示する色情報を用いて、第2超音波画像データ(第2超音波ボリュームデータ)を画像生成部14に生成させる。かかる処理により生成された第2超音波画像データでは、「dI」の値が大きい位置の画素ほど、不透明度が高い色で描出され、「dI」の値が小さい位置の画素ほど、透明度が高い色で描出されることになる。医師は、同じ色調であっても、透明度を把握することで、血流と灌流とを判別することができる。
 なお、第5の実施形態は、追加した軸に対して、色の透明度を変更する他に、例えば、色の濃淡を変更する場合であっても適用可能である。また、第5の実施形態は、色情報の他に、ハッチング情報や濃淡情報を設定情報として用いる場合であっても適用可能である。
 上述したように、第5の実施形態では、焼灼治療後に残存している血流が、例えば、腫瘍の栄養血管内の血流であるのか、灌流(perfusion)であるのを識別できるマップ画像データを生成表示することができる。
 なお、上記の第1~第5の実施形態では、3次元走査により生成されたボリュームデータに対して画像処理を行なう場合について説明した。しかし、上記の第1~第5の実施形態で説明した画像処理は、2次元走査により生成された2次元画像データに対して行なう場合であっても適用可能である。
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。更に、各装置にて行なわれる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、或いは、ワイヤードロジックによるハードウェアとして実現され得る。
 また、第1~第5の実施形態で説明した画像処理方法は、予め用意された画像処理プログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。この画像処理プログラムは、インターネット等のネットワークを介して配布することができる。また、この画像処理プログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO、DVD等のコンピュータで読み取り可能な非一時的記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。
 以上、説明したとおり、第1~第5の実施形態によれば、ラジオ波焼灼術の確実な治療効果判定を迅速かつ簡便に行なうことができる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、請求の範囲に記載された発明とその均等の範囲に含まれるものである。

Claims (19)

  1.  被検体の第1超音波画像データにて設定された関心領域の境界の位置を取得する取得部と、
     穿刺針を用いた治療後に収集された前記被検体の造影前の画像データと造影後の画像データとにおいて、造影前後の輝度値の変化が閾値以上である画素に、当該画素と前記関心領域の境界との距離に応じた画素値を割り当てた第2超音波画像データを生成する画像生成部と、
     前記第2超音波画像データを表示部に表示させる制御部と、
     を備える、超音波診断装置。
  2.  輝度値変化に対する前記閾値と、前記境界からの距離に応じて異なる画素値とが設定された設定情報とを記憶する記憶部、
     を更に備え、
     前記画像生成部は、前記設定情報に基づいて、前記第2超音波画像データを生成する、請求項1に記載の超音波診断装置。
  3.  前記記憶部は、前記設定情報として、前記境界からの距離に応じて異なる色が設定された色情報、又は、異なるハッチングが設定されたハッチング情報、又は、同系色で異なる濃淡が設定された濃淡情報を記憶する、請求項2に記載の超音波診断装置。
  4.  前記穿刺針が有する位置センサにより、該穿刺針の針先の位置を検出する検出部、
     を更に備え、
     前記取得部は、前記検出部が検出した針先の位置に基づいて、前記関心領域の境界の位置を取得する、請求項3に記載の超音波診断装置。
  5.  前記第1超音波画像データは、前記被検体を3次元走査して生成された第1超音波ボリュームデータであり、前記造影前の画像データ及び前記造影後の画像データである造影画像データは、前記被検体を3次元走査して生成された造影ボリュームデータであって、
     前記取得部は、前記関心領域の3次元の位置を、前記検出部が検出した針先の3次元の位置に基づいて取得し、
     前記画像生成部は、前記造影前の画像データ及び前記造影後の画像データである造影ボリュームデータにおいて、造影前後の輝度値の変化が前記閾値以上であるボクセルに、当該ボクセルと前記関心領域の境界との距離に対応するボクセル値を前記設定情報に基づいて割り当てた第2超音波ボリュームデータを前記第2超音波画像データとして生成し、
     前記制御部は、前記第2超音波ボリュームデータから生成された断面画像データ又は投影画像データの少なくとも1つを前記表示部に表示させる、請求項4に記載の超音波診断装置。
  6.  前記制御部は、前記被検体の組織が描出された超音波画像データ及び前記被検体の造影剤分布が描出された超音波画像データの少なくとも1つと、前記第2超音波画像データとを重畳した画像データを前記表示部に表示させる、請求項1に記載の超音波診断装置。
  7.  前記記憶部は、境界の内側においては第1色調で該境界からの距離に応じて異なる色が設定され、境界の外側においては前記第1色調とは異なる第2色調で該境界からの距離に応じて異なる色が設定された色情報を前記設定情報として記憶する、請求項3に記載の超音波診断装置。
  8.  前記画像生成部は、前記関心領域の内部、又は、前記関心領域の内部及び前記関心領域の境界近傍の外側に限局した領域にて前記第2超音波画像データを生成する、請求項1に記載の超音波診断装置。
  9.  前記記憶部は、前記輝度値変化に対する前記閾値として、境界からの距離に応じて異なる値の複数の閾値を記憶し、
     前記画像生成部は、前記関心領域の境界からの距離に対応する閾値以上となった画素に、当該画素と前記関心領域の境界との距離とに対応する画素値を前記設定情報に基づいて割り当てて前記第2超音波画像データを生成する、請求項3に記載の超音波診断装置。
  10.  前記制御部は、前記関心領域に限定して前記第2超音波画像データを表示させる、又は、前記関心領域に限定した前記第2超音波画像データに前記穿刺針の位置を重畳表示させる、請求項1に記載の超音波診断装置。
  11.  前記制御部は、前記第2超音波ボリュームデータにおいて前記穿刺針の針先を含み、かつ、前記穿刺針の挿入経路に直交する断面で前記第2超音波ボリュームデータを切断した断面画像データを表示させる、請求項5に記載の超音波診断装置。
  12.  前記制御部は、更に、前記関心領域内の輝度値の時間にともなう変化を示す時間変化曲線を表示させる、請求項1に記載の超音波診断装置。
  13.  前記制御部は、更に、前記関心領域内で画素値が割り当てられた領域の該関心領域に対する割合を表示させる、請求項1に記載の超音波診断装置。
  14.  前記取得部は、前記穿刺針が抜かれた後に前記造影前の画像データ及び前記造影後の画像データである造影画像データが収集される場合、前記第1超音波画像データと前記造影画像データとを位置合わせして、前記造影画像データにおける前記関心領域に対応する対応領域の位置を取得し、
     前記画像生成部は、前記対応領域の境界の位置に基づいて、前記第2超音波画像データを生成する、請求項1に記載の超音波診断装置。
  15.  前記取得部は、前記穿刺針を用いた治療が、当該穿刺針の位置を変更して複数回行なわれる場合、各治療において設定された複数の関心領域を合成した合成領域の境界の位置を取得し、
     前記画像生成部は、前記合成領域の境界の位置に基づいて、前記第2超音波画像データを生成する、請求項1に記載の超音波診断装置。
  16.  前記画像生成部は、造影前後の輝度値の変化が前記閾値以上である画素に、当該画素と前記関心領域の境界との距離、及び、当該画素で輝度値の変化が前記閾値以上となった時間に応じた画素値を割り当てて、前記第2超音波画像データを生成する、請求項1に記載の超音波診断装置。
  17.  前記画像生成部は、造影前後の輝度値の変化が前記閾値以上である画素に、当該画素と前記関心領域の境界との距離、及び、当該画素における輝度値の変化量に応じた画素値を割り当てて、前記第2超音波画像データを生成する、請求項1に記載の超音波診断装置。
  18.  前記関心領域の形状テンプレートは、前記穿刺針の種類に応じて定められる、請求項1に記載の超音波診断装置。
  19.  取得部が、被検体の第1超音波画像データにて設定された関心領域の境界の位置を取得し、
     画像生成部が、穿刺針を用いた治療後に収集された前記被検体の造影前の画像データと造影後の画像データとにおいて、造影前後の輝度値の変化が閾値以上である画素に、当該画素と前記関心領域の境界との距離に応じた画素値を割り当てた第2超音波画像データを生成し、
     制御部が、前記第2超音波画像データを表示部に表示させる、
     ことを含む、画像処理方法。
PCT/JP2013/081063 2012-11-16 2013-11-18 超音波診断装置及び画像処理方法 WO2014077396A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201380002850.9A CN103930041B (zh) 2012-11-16 2013-11-18 超声波诊断装置以及图像处理方法
US14/713,720 US10039525B2 (en) 2012-11-16 2015-05-15 Ultrasound diagnostic apparatus and image processing method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012252524 2012-11-16
JP2012-252524 2012-11-16
JP2013-238159 2013-11-18
JP2013238159A JP2014113481A (ja) 2012-11-16 2013-11-18 超音波診断装置及び画像処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/713,720 Continuation US10039525B2 (en) 2012-11-16 2015-05-15 Ultrasound diagnostic apparatus and image processing method

Publications (1)

Publication Number Publication Date
WO2014077396A1 true WO2014077396A1 (ja) 2014-05-22

Family

ID=50731303

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/081063 WO2014077396A1 (ja) 2012-11-16 2013-11-18 超音波診断装置及び画像処理方法

Country Status (4)

Country Link
US (1) US10039525B2 (ja)
JP (1) JP2014113481A (ja)
CN (1) CN103930041B (ja)
WO (1) WO2014077396A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016128213A1 (en) 2015-02-11 2016-08-18 Sony Corporation Communications device, infrastructure equipment, and methods
EP3554136A1 (en) 2015-02-11 2019-10-16 Sony Corporation Communications device, infrastructure equipment, mobile communications network and methods
CN113317814A (zh) * 2020-02-28 2021-08-31 深圳迈瑞生物医疗电子股份有限公司 超声造影成像方法和装置

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8187260B1 (en) * 2006-12-29 2012-05-29 Endocare, Inc. Variable cryosurgical probe planning system
WO2014195344A1 (en) * 2013-06-05 2014-12-11 Koninklijke Philips N.V. Method and device for displaying a first image and a second image of an object
JP6447071B2 (ja) * 2013-12-11 2019-01-09 コニカミノルタ株式会社 超音波診断装置、超音波画像処理方法、および、プログラム
US11227427B2 (en) * 2014-08-11 2022-01-18 Covidien Lp Treatment procedure planning system and method
JP2016107061A (ja) * 2014-11-28 2016-06-20 株式会社東芝 超音波診断装置
JP6548210B2 (ja) * 2014-12-25 2019-07-24 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波診断装置
CN107106194B (zh) * 2014-12-31 2020-08-25 柯惠有限合伙公司 用于治疗慢性阻塞性肺病和肺气肿的系统和方法
JP6858127B2 (ja) * 2015-02-17 2021-04-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 組織アブレーションを支援するための装置及び方法
WO2017029830A1 (ja) * 2015-08-20 2017-02-23 コニカミノルタ株式会社 超音波画像診断装置
US10548666B2 (en) 2015-11-17 2020-02-04 Covidien Lp Systems and methods for ultrasound image-guided ablation antenna placement
JP6822806B2 (ja) * 2016-01-29 2021-01-27 キヤノンメディカルシステムズ株式会社 超音波診断装置および医用画像処理装置
CN106388911B (zh) * 2016-09-21 2019-02-15 深圳华声医疗技术股份有限公司 超声图像标识的显示方法及装置
JP6833427B2 (ja) * 2016-09-26 2021-02-24 キヤノンメディカルシステムズ株式会社 超音波診断装置及び医用画像処理プログラム
US10299764B2 (en) * 2017-05-10 2019-05-28 General Electric Company Method and system for enhanced visualization of moving structures with cross-plane ultrasound images
JP7095409B2 (ja) * 2018-05-30 2022-07-05 大日本印刷株式会社 医用画像処理装置、医用画像処理方法、プログラム、及びmpr像生成方法
JP7337073B2 (ja) * 2018-08-17 2023-09-01 富士フイルム株式会社 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
CN108986902A (zh) * 2018-08-28 2018-12-11 飞依诺科技(苏州)有限公司 四维扫查设备的扫查方法、装置及存储介质
JP7308600B2 (ja) * 2018-09-12 2023-07-14 キヤノンメディカルシステムズ株式会社 超音波診断装置、医用画像処理装置、及び超音波画像表示プログラム
CN111345842B (zh) * 2018-12-20 2024-11-08 深圳迈瑞生物医疗电子股份有限公司 一种医疗成像设备及其剖面成像方法
JP7330705B2 (ja) * 2019-01-17 2023-08-22 キヤノンメディカルシステムズ株式会社 画像解析装置
JP7112588B2 (ja) * 2019-03-19 2022-08-03 オリンパス株式会社 超音波観測装置、超音波観測装置の作動方法、及び超音波観測装置の作動プログラム
EP3662837A1 (en) * 2019-03-29 2020-06-10 Siemens Healthcare GmbH Method for providing image data of a hollow organ
WO2021029153A1 (ja) * 2019-08-15 2021-02-18 富士フイルム株式会社 超音波診断装置、及び超音波診断装置の制御方法
EP4051125A1 (en) * 2019-11-01 2022-09-07 Koninklijke Philips N.V. Systems and methods for color mappings of contrast images
JP2022178316A (ja) * 2021-05-20 2022-12-02 コニカミノルタ株式会社 超音波診断装置及びプログラム
EP4307089A4 (en) * 2021-08-31 2024-10-23 Samsung Electronics Co Ltd DISPLAY DEVICE AND OPERATING METHOD THEREOF

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007117384A (ja) * 2005-10-27 2007-05-17 Toshiba Corp 画像診断・治療支援装置及び治療効果判定用画像データ生成方法
JP2009279079A (ja) * 2008-05-20 2009-12-03 Toshiba Corp 超音波診断装置及び穿刺治療支援プログラム
JP2010099193A (ja) * 2008-10-22 2010-05-06 Toshiba Corp 医用画像処理装置、超音波診断装置、及び医用画像処理プログラム
JP2011200533A (ja) * 2010-03-26 2011-10-13 Fujifilm Corp 超音波診断装置
JP2012045198A (ja) * 2010-08-27 2012-03-08 Hitachi Medical Corp 治療支援装置及び治療支援システム
WO2012147733A1 (ja) * 2011-04-25 2012-11-01 学校法人東京女子医科大学 治療支援システム及び医用画像処理装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6746401B2 (en) * 2002-05-06 2004-06-08 Scimed Life Systems, Inc. Tissue ablation visualization
JP4567967B2 (ja) * 2003-12-25 2010-10-27 株式会社東芝 超音波診断装置
US10376314B2 (en) * 2006-07-14 2019-08-13 Neuwave Medical, Inc. Energy delivery systems and uses thereof
EP3626194A1 (en) 2006-07-14 2020-03-25 Neuwave Medical, Inc. Energy delivery system
EP2373241B1 (en) * 2008-12-03 2015-01-07 Koninklijke Philips N.V. Feedback system for integrating interventional planning and navigation
JP5689591B2 (ja) 2009-06-01 2015-03-25 株式会社東芝 超音波診断装置及び超音波画像処理プログラム
WO2011095898A1 (en) * 2010-02-02 2011-08-11 Koninklijke Philips Electronics N.V. Functional imaging
CN101940498B (zh) * 2010-09-10 2012-05-09 中山大学 一种用于虚拟导航评价肿瘤消融安全边界的模型
JP2013081764A (ja) * 2011-09-27 2013-05-09 Toshiba Corp 超音波診断装置及び超音波走査プログラム
EP2747662B1 (en) * 2011-11-10 2020-01-08 Koninklijke Philips N.V. Spectral imaging
JP5926937B2 (ja) * 2011-11-30 2016-05-25 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2014084285A1 (ja) * 2012-11-27 2014-06-05 株式会社東芝 X線診断装置及びインジェクター
JP2015217170A (ja) * 2014-05-19 2015-12-07 株式会社東芝 X線診断装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007117384A (ja) * 2005-10-27 2007-05-17 Toshiba Corp 画像診断・治療支援装置及び治療効果判定用画像データ生成方法
JP2009279079A (ja) * 2008-05-20 2009-12-03 Toshiba Corp 超音波診断装置及び穿刺治療支援プログラム
JP2010099193A (ja) * 2008-10-22 2010-05-06 Toshiba Corp 医用画像処理装置、超音波診断装置、及び医用画像処理プログラム
JP2011200533A (ja) * 2010-03-26 2011-10-13 Fujifilm Corp 超音波診断装置
JP2012045198A (ja) * 2010-08-27 2012-03-08 Hitachi Medical Corp 治療支援装置及び治療支援システム
WO2012147733A1 (ja) * 2011-04-25 2012-11-01 学校法人東京女子医科大学 治療支援システム及び医用画像処理装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016128213A1 (en) 2015-02-11 2016-08-18 Sony Corporation Communications device, infrastructure equipment, and methods
EP3554136A1 (en) 2015-02-11 2019-10-16 Sony Corporation Communications device, infrastructure equipment, mobile communications network and methods
EP3843437A1 (en) 2015-02-11 2021-06-30 Sony Corporation Communications device, infrastructure equipment, and methods
CN113317814A (zh) * 2020-02-28 2021-08-31 深圳迈瑞生物医疗电子股份有限公司 超声造影成像方法和装置

Also Published As

Publication number Publication date
CN103930041B (zh) 2016-09-28
US10039525B2 (en) 2018-08-07
US20150245819A1 (en) 2015-09-03
JP2014113481A (ja) 2014-06-26
CN103930041A (zh) 2014-07-16

Similar Documents

Publication Publication Date Title
WO2014077396A1 (ja) 超音波診断装置及び画像処理方法
JP5868067B2 (ja) 医用画像診断装置、画像処理装置及び方法
JP6257997B2 (ja) 超音波診断装置及び超音波診断装置制御方法
JP5762076B2 (ja) 超音波診断装置、超音波画像処理装置及び医用画像診断装置
JP7461530B2 (ja) 超音波診断装置及び穿刺支援プログラム
JP6222829B2 (ja) 超音波診断装置、画像処理装置及び画像処理方法
US10524768B2 (en) Medical image diagnostic apparatus and medical image processing apparatus
US9610094B2 (en) Method and apparatus for ultrasonic diagnosis
JP6297289B2 (ja) 画像処理システム、x線診断装置及び画像処理装置の作動方法
US20170095226A1 (en) Ultrasonic diagnostic apparatus and medical image diagnostic apparatus
JP5689591B2 (ja) 超音波診断装置及び超音波画像処理プログラム
JP2011254963A (ja) 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
JP6352013B2 (ja) 超音波診断装置、画像処理装置及び画像処理プログラム
WO2013146716A1 (ja) 超音波診断装置、画像処理装置及び画像処理方法
US20150173721A1 (en) Ultrasound diagnostic apparatus, medical image processing apparatus and image processing method
JP2015006438A (ja) 超音波診断装置、画像処理装置及び画像処理プログラム
JP2019093140A (ja) 光超音波診断装置、医用画像処理装置、医用画像処理プログラム、及び超音波診断装置
US11850101B2 (en) Medical image diagnostic apparatus, medical image processing apparatus, and medical image processing method
JP2012245092A (ja) 超音波診断装置
JP2012061261A (ja) 超音波診断装置、医用画像処理装置および医用画像処理プログラム
JP2023108765A (ja) 超音波診断装置及び判定方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13855748

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13855748

Country of ref document: EP

Kind code of ref document: A1