[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7250675B2 - 誘導システム - Google Patents

誘導システム Download PDF

Info

Publication number
JP7250675B2
JP7250675B2 JP2019524210A JP2019524210A JP7250675B2 JP 7250675 B2 JP7250675 B2 JP 7250675B2 JP 2019524210 A JP2019524210 A JP 2019524210A JP 2019524210 A JP2019524210 A JP 2019524210A JP 7250675 B2 JP7250675 B2 JP 7250675B2
Authority
JP
Japan
Prior art keywords
image
data
guidance system
location
generate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019524210A
Other languages
English (en)
Other versions
JP2019533540A (ja
Inventor
ニラジ ピー ラウニヤール
ティモシー ピー ハラー
ピーター ジェイ ペレイラ
ウィリアム エム アセリン
マイケル エス エイチ チュー
ブランドン ダブリュー クラフト
アダム ピー ノーディフ
チャド シュナイダー
ウィリアム スタンホープ
エリック ウォン
キンバリー デグラーフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boston Scientific Scimed Inc
Original Assignee
Boston Scientific Scimed Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boston Scientific Scimed Inc filed Critical Boston Scientific Scimed Inc
Publication of JP2019533540A publication Critical patent/JP2019533540A/ja
Application granted granted Critical
Publication of JP7250675B2 publication Critical patent/JP7250675B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00172Optical arrangements with means for scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/063Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for monochromatic or narrow-band illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0676Endoscope light sources at distal tip of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/307Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the urinary organs, e.g. urethroscopes, cystoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/062Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/309Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • A61B2090/3782Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument
    • A61B2090/3784Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument both receiver and transmitter being in the instrument or receiver being also transmitter
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/05Surgical care
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Gynecology & Obstetrics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Urology & Nephrology (AREA)
  • Endoscopes (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

〔関連出願への相互参照〕
この特許出願は、引用によって本明細書にその全体が組み込まれている2016年11月11日出願の米国仮特許出願第62/420,891号に対する「35 U.S.C.§119」の下での優先権の利益を主張するものである。
本発明の開示の態様は、一般的に医療デバイス及び手術に関する。特定の態様は、誘導システム及び関連の方法に関する。
診断、手術、及び/又は治療目的で身体の遠隔領域及び体腔にアクセスするのに細長デバイスが一般的に使用される。例えば、内視鏡は、自然に形成された内腔又は開口部及び/又は手術切開部を使用して結腸、食道、胃、尿道、膀胱、尿管、腎臓、肺、気管支、子宮、及び他の臓器にアクセスすることができ、カテーテルは、心臓に近い処置部位にアクセスする通路として循環系を又は泌尿器領域にアクセスするのに尿管を使用することができる。これらの細長デバイスは、鼠蹊部又は頚部に見出されるものを含む大動脈のような自然な身体経路を通して身体内に導入することができる。同じデバイスはまた、トンネリングツールによって形成されたトンネルのような身体に形成された人工経路を通して導入することができる。
米国特許第9,380,930号明細書 米国特許第8,517,924号明細書 米国仮特許出願第62/287,667号明細書 米国特許第2014/0257095号明細書
「光ファイバの形状及び位置の感知(Fiber Optic Shape and Position Sensing)」、https://www.youtube.com/watch?v=Yc8Q-CxvDKU、2008年1月14日アップロード
一部の身体経路を通るナビゲーションは、デバイスの遠位端が体内の手術部位に到達するまで減幅し続ける直径を細長デバイスに通過させることを必要とする。遠位端を手術部位に位置付けることは困難である可能性がある。一部の事例では、蛍光透視鏡を使用して遠位端を1つの移動平面で身体を通して誘導することができる。X線は、外部から単一撮像平面に印加されるので、それらは、多くの場合に身体経路、特に身体内に深く延びる経路の限局性態様に対処することができない。身体経路のより広い範囲を通して医療デバイスを誘導し、かつそのようなナビゲーションに関連付けられるリスクを低減する追加の感知技術が必要である。本明細書に説明するデバイス、方法、及びシステムの態様は、これらの問題に対処するために提供される。
本発明の開示の態様は、誘導デバイス、システム、及び方法に関する。本発明の開示の多くの態様をここで説明する。
本発明の開示の一態様は、身体の第1の画像と各第1の画像に関連付けられた第1の場所データとを含むマクロ走査データを受信する段階と、第1の場所データに従って第1の画像を組み合わせて身体情報モデルを生成する段階と、ナビゲーション構成要素を身体内に位置決めする段階と、身体の第2の画像と各第2の画像に関連付けられた第2の場所データとを含むミクロ走査データをナビゲーション構成要素によって生成する段階と、身体情報モデル内のターゲット場所で第1の場所データを第2の場所データと相関させる段階と、及び/又はターゲット場所で第1の画像を第2の画像と組み合わせることによって身体情報モデルを修正する段階とを含む方法である。
この態様により、ナビゲーション構成要素は、細長シャフトと、細長シャフトの遠位部分上に位置付けられた内部スキャナとを含むことができ、本方法は、内部スキャナを身体内に位置決めする段階と、内部スキャナを用いてミクロ走査データを生成する段階とを含むことができる。内部スキャナは、身体の波エネルギ画像を生成するように構成されたプローブを含むことができ、第2の画像は、波エネルギ画像を含むことができ、本方法は、プローブを用いて波エネルギ画像を生成する段階を更に含む。プローブは、身体の超音波画像を生成するように構成された1又は2以上の超音波変換器を含むことができ、波エネルギ画像を生成する段階は、1又は2以上の超音波変換器を用いて超音波画像を生成する段階を含むことができる。プローブは、身体のレーザ画像を生成するように構成された1又は2以上のレーザ源を含むことができ、波エネルギ画像を生成する段階は、1又は2以上のレーザ源を用いてレーザ画像を生成する段階を含むことができる。
一部の態様では、内部スキャナは、グラフィック画像を生成するように構成された複数の撮像要素を含むことができ、第2の画像は、グラフィック画像を含むことができ、本方法は、複数の撮像要素を用いて電磁スペクトルの1又は2以上の周波数でグラフィック画像を生成する段階を更に含む。グラフィック画像を生成する段階は、可視光範囲のグラフィック画像を生成する段階を含むことができる。内部スキャナは、複数の光源を含み、本方法は、複数の光源を複数の撮像要素とは独立に又はそれと共に作動させる段階を更に含むことができる。ミクロ走査データを生成する段階は、予め決められたシーケンスに従って第2の画像及び場所データを生成する段階を含むことができる。例えば、第2の画像は、予め決められたシーケンスで60Hz又はそれよりも高い速度で生成することができる。
他の態様では、ナビゲーション構成要素は、細長シャフトを含むことができ、身体内にナビゲーション構成要素を位置決めする段階は、身体を通して細長シャフトの遠位部分を移動する段階を含むことができる。例えば、細長シャフトの遠位部分は、磁場に応答する追跡センサを含むことができ、第2の場所データを生成する段階は、磁場内でセンサを移動する段階を含むことができる。
本発明の開示の別の態様は、手術の前にマクロ走査データを受信する段階と、マクロ走査データから身体情報モデルを生成する段階と、手術中に身体内にナビゲーション構成要素を位置決めする段階と、ナビゲーション構成要素を用いてミクロ走査データを生成する段階と、身体情報モデル内でマクロ走査データ内の場所をミクロ走査データ内の場所と相関させる段階と、及び/又はミクロ走査データ内の画像をマクロ走査データ内の画像と組み合わせることによって身体情報モデルを修正する段階とを含む方法である。
この態様により、本方法は、身体情報モデルの一部分をナビゲーション画像として出力する段階を含むことができる。例えば、本方法は、ナビゲーション画像内で身体を通る経路を識別する段階と、ナビゲーション画像内でナビゲーション構成要素の場所を識別する段階と、ナビゲーション画像内で経路に沿ってナビゲーション構成要素を誘導する段階とを含むことができる。本方法は、経路に対して身体内の物体を位置付ける段階と、位置付けられた物体にナビゲーション構成要素を誘導する段階とを更に含むことができる。一部の態様では、本方法は、位置付けられた物体の特性を決定する段階を含む。本方法はまた、位置付けられた物体のうちの1つをその特性に基づいて選択する段階と、選択された物体に対して処置を実施する段階と、選択された物体が処置されたことを示すように身体情報モデルを修正する段階とを含むことができる。
本発明の開示の更に別の態様は、身体の第1の画像と各第1の画像に関連付けられた第1の場所データとを含むマクロ走査データを手術の前に受信する段階と、第1の場所データに従って第1の画像を組み合わせて身体情報モデルを生成する段階と、手術中に身体内にナビゲーション構成要素を位置決めする段階と、身体の第2の画像と各第2の画像に関連付けられた第2の場所データとを含むミクロ走査データをナビゲーション構成要素によって生成する段階と、身体情報モデル内のターゲット場所で第1の場所データを第2の場所データと相関させる段階と、ターゲット場所で第1の画像を第2の画像と組み合わせることによって身体情報モデルを修正する段階と、身体情報モデルの一部分をナビゲーション画像として出力する段階と、ナビゲーション画像内で身体を通る経路を識別する段階と、ナビゲーション画像内でナビゲーション構成要素の場所を識別する段階と、及び/又はナビゲーション画像内で経路に沿ってナビゲーション構成要素を誘導する段階とを含む方法である。
以上の概要と以下の詳細説明の両方は、単に例示的かつ説明的であり、いずれも下記で主張する本発明を限定するものではないことは理解することができる。
添付図面は、本明細書に組み込まれてその一部を構成する。本明細書に説明する記述と共に本発明の開示を解説するのに寄与するこれらの図面は、本発明の開示の態様を例示するものである。各図面は、以下のように本発明の開示の1又は2以上の態様を描いている。
システムの例示的マッピング構成要素を描く図である。 マクロ走査データの例示的態様を描く図である。 ミクロ走査データの追加の例示的態様を描く図である。 例示的身体情報モデルの態様を描く図である。 身体内の第1の場所での例示的ナビゲーション構成要素の態様を描く図である。 身体内の第2の場所での図2Aのナビゲーション構成要素を描く図である。 図4A-Bに描くナビゲーション構成要素の例示的構成を描く図である。 ミクロ走査データの例示的態様を描く図である。 ミクロ走査データの追加の例示的態様を描く図である。 例示的コントローラを描く図である。 例示的ナビゲーションデバイスを描く図である。 別の例示的ナビゲーションデバイスを描く図である。 例示的方法を描く図である。 別の例示的方法を描く図である。
ここで、本発明の開示の態様を例示的な誘導システム及び関連の方法を参照して説明する。一部の態様は、細長デバイスの遠位端が体腔(又は体内の他のターゲット部位)内に位置付けられるまで細長デバイスが身体経路を通して誘導される作動に関して説明する。例えば、内視鏡は、尿道、膀胱、及び/又は尿管を含む自然な身体経路を通して内視鏡の遠位端が腎臓の内腔に位置付けられるまで誘導される細長本体を含むことができる。医療のような特定のタイプの手術又は手順に関して、自然又は人工であるような身体経路又は腎臓の内腔のような体腔は、便宜上与えられるものであり、特許請求しない限り、本発明の開示を制限するように意図していない。従って、本明細書に説明する概念は、あらゆる類似のデバイス又は方法に対して、医療用途又はそれ以外、腎臓特定又はそうでないものに対して利用することができる。
多くの軸を説明する。各軸は、次の軸を横断するか又は原点O(又はO’)を有する直交座標系が確立されるように次の軸と垂直である場合さえもある。1つの軸は、要素又は身体経路内に定められた原点を通って延びる縦軸に沿って延びる。これらの軸に関して相対的な構成要素及び特徴部を説明するために「近位」及び「遠位」という方向用語、並びにそれぞれの頭文字「P」及び「D」を使用することができる。近位は、身体の外部又はユーザに近い位置を指し、それに対して遠位は、身体の内部に近いか又はユーザから遠い位置を指す。頭文字「P」又は「D」を要素番号に付加することによって近位又は遠位場所を示し、P又はDを図内の矢印に付加することによって1又は2以上の軸に沿う近位方向又は遠位方向を示している。いずれかの軸に沿う近位方向又は遠位方向に延びるいずれかの態様を説明するために「細長」という用語を使用することができる。特許請求しない限り、これらの用語は、便宜上与えられるものであり、本発明の開示を特定の場所、方向、又は向きに限定するように意図していない。
本明細書に使用する場合に、「comprises」、「comprising」、又は同様の変形は、非限定的包含を網羅するように意図しており、従って、列記する要素を含むデバイス又は方法は、これらの要素のみを含むわけではなく、明示的に列記していない他の要素又は元来備わっているものを含むことができる。別途示さない限り、「例示的」という用語は、「理想」ではなく「例」の意味に使用する。それとは逆に、「consists of」、「consisting of」という用語は、限定的包含を網羅するように意図しており、従って、列記する要素から構成されるデバイス又は方法は、これらの要素のみを含む。本明細書に使用する場合に、「約」、「実質的」、「近似的に」のような用語又は同様の変形は、説明する値の±5%以内の値の範囲を示すことができる。
本発明の開示の態様は、例示的誘導システム10に関連し、その例を例示的身体1に関して図1~図8Bに示している。身体1は、患者の身体(例えば、人体)又はその一部分とすることができる。図1では、例えば、身体1は、外面2、その上の進入点3、体腔4、及び進入点3と体腔4との間を延びる身体経路5を含むヒト本体の正中横断面として示されている。身体1内の原点Oを通って身体軸B-Bが延び(例えば、図1)、身体経路5内の原点O’を通って身体経路P-Pが延びる(例えば、図4A~図4B)。
システム10は、身体1のミクロ走査(例えば、図1)を実施し、マクロ走査データ23(例えば、図2A~図2B)を出力するように構成されたマッピング構成要素20と、身体1のマクロ走査(例えば、図4A~図5)を実施し、ミクロ走査データ43(例えば、図6A~図6B)を出力するように構成されたナビゲーション構成要素40と、マクロ走査データ23から手術前身体情報モデル25(例えば、図3)を発生させ、ミクロ走査データ43を用いて情報モデル25を作動的に更新し、及び/又はモデル25の一部分をナビゲーション画像27(例えば、図7)として出力するように構成されたコントローラ60(例えば、図7)とを含むことができる。本明細書では、システム10の態様を説明するために「マクロ走査」及び「ミクロ走査」という用語を利用する。この出願では、マクロ走査は、外部から印加される走査媒体(例えば、CTスキャナからのX線)から取得することができ、それに対してミクロ走査は、体内で印加される走査媒体(例えば、変換器からの音波)から取得することができる。
マッピング構成要素20は、身体1のマクロ走査を実施してマクロ走査データ23を出力するように構成される。図1には例示的マッピング構成要素20を身体1の1又は2以上のマクロ走査を取得するように構成された外部スキャナ22と、マクロ走査データ23を出力するように構成された送信機26とを含むものとして示している。図2A~図2Bに示すように、マクロ走査データ23は、マクロ走査から発生される撮像データ23ID(例えば、波エネルギ画像)と、マクロ走査が実施される時に発生される場所データ23LD(例えば、軸B-Bに沿う波エネルギ画像の場所)とを含むことができる。
撮像データ23IDは、外部スキャナ22によっていずれかの走査媒体を用いていずれかの解像度でいずれかのフォーマットで発生されるあらゆる枚数の2次元又は3次元の画像を含むことができる。例えば、スキャナ22は、波エネルギ(例えば、光、音、X線のような)を身体1の外面2に向けて誘導し、波エネルギの反射部分を受波し、身体1の波エネルギ画像を含む撮像データ23IDを生成するように構成することができる。一部の態様では、スキャナ22は、X線を撮像軸I-Iに沿って誘導して受波し、身体1に対する1又は2以上の角度及び/又は位置で撮影された複数の2次元断面X線画像を含む撮像データ23IDを生成するように構成されたCTスキャナとすることができる。代表的な断面X線画像をCTスキャナによって発生された撮像データ23IDとして図2Aに描いている。類似の画像を他の波エネルギを用いて生成することができる。他の態様では、外部スキャナ22は、磁場、電波、及び場の勾配を用いて複数の3次元画像を含む撮像データ23IDを生成するように構成された磁気共鳴撮像デバイスを含むことができる。
場所データ23LDは、身体1内で自然マーカ及び/又は人工マーカに対して撮像データ23IDを位置付けるために使用することができる。図1では、原点O及びそこを通って延びる身体軸B-Bを通って撮像平面I-Iが延びる。原点Oは、身体1の椎骨の重心に定めることができ(例えば、図2A)、身体軸B-Bが身体1の脊柱を通って延びる縦軸と一致し、各マクロ走査において共通の基準点を与えることを可能にする。原点O及び/又は身体軸B-Bの場所を定めるのに、これに代えて人工マーカを身体1内又は上に配置することができる。例えば、人工マーカは、外面2上、体腔4の内部、及び/又はベッド8上に置くことができ、身体1の断面X線画像内で点O及び/又は軸B-Bの場所を定めるように成形された放射線不透過要素を含むことができる。
送受信機26は、マクロ走査データ23を出力するように構成されたいずれかの有線技術又は無線技術を含むことができる。例えば、送受信機26は、Bluetooth(登録商標)、光ファイバケーブル、及びWi-Fiなどを含むいずれかの公知のデータ通信技術を用いてデータ23を出力し、及び/又はコントローラ60の送受信機66と別途通信するように構成することができる。マッピング構成要素20、ナビゲーション構成要素40、及びコントローラ60が全て同じデバイスの一部である場合に、送受信機26は、単純にそのようなデバイスのそれぞれの構成要素間の直接接続又は有線接続とすることができる。
図4Aを参照して、ナビゲーション構成要素40は、身体1のミクロ走査を実施してミクロ走査データ43を出力するように構成される。ナビゲーション構成要素40の多くの態様を説明する。例えば、図4A~図5に示す一態様により、ナビゲーション構成要素40は、身体経路5を通してステアリング可能な細長シャフト41と、シャフト41が経路5に沿って移動される時に1又は2以上のミクロ走査を実施するように構成された内部スキャナ又はセンサ42と、経路5の周りに磁場を生成するように構成された磁場発生器44と、磁場内でスキャナ42の位置付けるように構成された追跡センサ50と、ミクロ走査データ43を出力するように構成された送受信機46とを含むことができる。図6A~図6Bに示すように、ミクロ走査データ43は、ミクロ走査から発生される撮像データ43ID(例えば、波エネルギ画像)と、ミクロ走査が実施される時に発生される場所データ43LD(例えば、軸P-Pに沿う波エネルギ画像の場所)とを含むことができる。
図4A~図4Bの細長シャフト41は、その中を通って延びる少なくとも1つのチャネル45と、チャネル45と共に作動可能ないずれかの個数の関節部分及び/又はステアリング機構とを含むことができる。例示的ステアリング機構は、2016年7月5日に付与されて全内容が引用によって本明細書に組み込まれている米国特許第9,380,930号明細書の場合と同様に、シャフト41の近位端に取り付けられたハンドルと、シャフト41を通って延びる複数のプルワイヤとを含むことができ、これらのワイヤは、ハンドル上のアクチュエータに印加された物理的な力に応答してシャフト41を関節作動させるように構成される。他の態様では、シャフト41は、2013年8月27日に付与されて全内容が引用によって本明細書に組み込まれている米国特許第8,517,924号明細書の場合と同様に、コントローラ60からの制御信号に応答してシャフト41を関節作動させるように構成された複数の電気応答性関節セクションを含むことができる。例えば、制御信号は、ジョイスティック又は2016年1月27日に出願されて全内容が引用によって本明細書に組み込まれている米国仮特許出願第62/287,667号明細書に記載されているものを含む類似の入力デバイスの移動のようなユーザ入力に応答して生成することができる。
撮像データ43IDは、内部スキャナ42によっていずれかの走査媒体を用いていずれかの解像度でいずれかのフォーマットで発生されるあらゆる枚数の2次元又は3次元の画像を含むことができる。例えば、スキャナ42は、コンピュータ断層撮影(CT)、超音波、陽電子放射断層撮影(PET)、及び/又は類似の技術を用いて発生される3次元画像を含む撮像データ43IDを生成するように構成することができる。それぞれ図2B及び図6Bに示す例示的格子パターンによって示すように、撮像データ43IDの奥行き、品質、及び/又は解像度は、撮像データ23IDとは異なる及び/又はそれよりも大きいとすることができる。例示的スキャナ42を図5に示している。図示のように、スキャナ42は、シャフト41の遠位部分41D上に配置することができ、複数の撮像要素47と、複数の光源49と、プローブ52とを含むことができる。次いで、例示的スキャナ42の各要素を説明する。
複数の撮像要素47は、撮像データ43IDの一部分を生成するように構成することができる。例えば、データ43IDは、連続的に及び/又はシャフト41が身体経路軸P-Pに沿って移動される時に生成することができる。撮像要素47は、可視光範囲又はそれよりも高い周波数を含む1又は2以上の電磁スペクトル周波数で身体1の画像を生成するように作動可能である場合がある。図5に示すように、撮像要素47は、身体1内の2次元グラフィック画像(例えば、写真及びトポグラフィなど)を生成するように構成されたデジタルカメラ回路を含むことができる。例えば、複数の撮像要素47は、シャフト41の外面の周りに環状に離間させることができ、従って、取得される画像を身体経路5及び/又は体腔4内の連続パノラマグラフィック画像を形成するように組み合わせることができる。
複数の光源49は、1又は2以上の波長の光を生成するように構成された発光ダイオードを含むことができる。光源49は、撮像データ43IDに向けて照明を印加するように撮像要素47と共と作動可能にすることができる(例えば、一緒に起動される)。光源49は、撮像目的に限定されたものとすることができる。例えば、追跡センサ50は磁場に応答することができ、下記で説明するように、ナビゲーション構成要素40を暗所での使用、すなわち、いかなるナビゲーション光も用いない使用に向けて、又は高速パルス振動レーザエネルギによって発生させた光のような視認を阻む可能性がある光の存在下での使用に向けて構成することができる。一部の態様では、複数の光源49は、身体1の内面からの感光応答を生成するように構成することができる。例えば、感光材料は、内腔45、身体経路5、及び/又は体腔4を通して送出され、次いで、経路4及び/又は体腔5内のターゲット組織との光過敏性反応をもたらすように構成された波長で光源49によって照明することができる。一部の態様では、この反応の特性(例えば、密度、強度、サイズのような)を撮像要素47が取り込み、ミクロ走査データ43内に撮像データ43IDとして出力し、及び/又はコントローラ60が処理することができる。
プローブ52は、撮像データ43IDの別の部分を生成するように撮像要素47とは独立に又はそれと共と作動可能にすることができる(例えば、一緒に起動される)。例えば、プローブ52は、波エネルギ(例えば、光、音、X線のような)を身体1の内面に向けて誘導し、波エネルギの反射部分を受波し、身体1の2次元又は3次元の波エネルギ画像を含む撮像データ43IDを生成するように構成することができる。図4のプローブ52は、例えば、経路軸P-Pに沿って及び/又はそれを横断する他の方向(例えば、図4A)に音波を誘導して受波し、複数の2次元断面超音波画像(例えば、図6A)を含む撮像データ43IDを生成するように構成された複数の前方及び/又は横方向を向く変換器を含む血管内超音波(又は「IVUS」)プローブとすることができる。身体経路5のそれぞれのIVUS超音波画像をIVUSプローブから発生された軸線方向超音波画像として例えば図6Aに示している。他の態様では、プローブ52は、レーザエネルギ(例えば、パルス振動又は連続するレーザビーム)を放出し、レーザエネルギの反射部分を受波し、経路5及び/又は体腔4の3次元画像を含む撮像データ43IDを生成するように構成されたレーザスキャナを含むことができる。
追跡センサ50は、例えば、複数の撮像要素47及び/又はプローブ52のうちの少なくとも1つが作動される度に場所データ43LDを生成するように磁場発生器44と共と作動可能にすることができる。図5では、例示的センサ50は、シャフト41の遠位部分41D上に装着されたハウジングと、その中に装着されたセンサコイル(図示せず)とを含む。図1及び図4A~図4Bには、磁場発生器44は、例えば身体1を支持するベッド8の下に置く(例えば、図1の場合のように)又は身体1の直下に置くことができ(例えば、図4A~図4Bの場合のように)、身体経路5の周りを延びる磁場(図示せず)を生成するように構成された複数の磁場発生要素(図示せず)を有する平面要素として示している。追跡センサ50内のコイルは、発生器44によってもたらされた磁場に応答して連続ロケータ信号(例えば、アナログ信号)を含む場所データ43LDを実時間で出力することができる。
送受信機46は、ミクロ走査データ43を出力するように構成されたいずれかの有線技術又は無線技術を含むことができる。例えば、送受信機46は、Bluetooth(登録商標)、光ファイバケーブル、及びWi-Fiなどを含むいずれかの公知のデータ通信技術を用いてデータ43を出力し、及び/又はコントローラ60の送受信機66と別途通信するように構成することができる。図2の送受信機46は、例えば、シャフト41の近位部分に結合され、身体1の外部に位置付けられる。図示のように、送受信機46は、内部スキャナ42から有線接続を通してミクロ走査データ43を受信し、それを送受信機66にコントローラ60との無線接続を通して送信するように構成される。
図7のコントローラ60は、マクロ走査データ23から手術前身体情報モデル25(例えば、図3)を発生させ、それをミクロ走査データ43を用いて作動的に更新し、及び/又は手術前状態又は更新状態にある情報モデル25の一部分を実時間でナビゲーション画像27(例えば、図7)として出力するように構成される。従って、コントローラ60は、1又は2以上のプロセッサ62と、1又は2以上のプロセッサ62によって実行可能なコンピュータ可読命令64を含むメモリ65と、送受信機66と、センサインタフェースユニット68と、位置付けユニット70と、信号ステーション72とを含むことができる。
コントローラ60のこれらの要素は、図7に示すように単一デバイス内に編成するか又はシステム10を通して分散させることができ、どのように配置された場合にも、各要素は、その次のもの及び/又は構成要素20及び40との相互通信の機能を有する。1又は2以上のプロセッサ62は、例えば、コントローラ60の一部とする、システム10を通して分散させる、及び/又はシステム10から距離を置いて設置されてシステム10との通信状態に入ることができる。プロセッサ62は、コンピュータ可読命令64に応答して本明細書に説明するいずれかのコンピュータ機能を実施するように構成される。メモリ65は、命令64、並びに本明細書に説明するいずれかの他のデータ及び/又は情報を格納するように構成されたいずれかの技術を含むことができる。類似のプロセッサ62、メモリ65は、システム10に対してどこにでも位置付けることができる。
送受信機66は、マクロ走査データ23及びミクロ走査データ43を受信するように構成されたいずれかの有線技術又は無線技術を含むことができる。例えば、送受信機46は、Bluetooth(登録商標)、光ファイバケーブル、及びWi-Fiなどを含むいずれかの公知のデータ通信技術を用いてデータ23及び43を受信し、及び/又はナビゲーション構成要素40の送受信機46と別途通信するように構成することができる。送受信機66は、システム10に対してどこにでも位置付けることができる。
プロセッサ60は、場所データ43LDをいかなる時でも、例えば、撮像データ43IDが発生された時には必ず生成するように構成することができる。例えば、センサインタフェースユニット68(例えば、図7)は、追跡センサ50からロケータ信号を受信し、それを生磁気データを含むデジタル場所信号に変換(例えば、調整、増幅、及び/又はデジタル化)するように構成することができる。位置付けユニット70(例えば、図7)は、デジタル場所信号を受信して、少なくとも、複数の撮像要素47及び/又はプローブ52のうちの1つが作動される度に生磁気データに基づいて瞬間場所データ43LDを生成するように構成することができる。信号ステーション72は、例えば、ナビゲーション画像27内での表示に向けて場所データ43LDを出力するように構成される。
身体情報モデル25は、コントローラ60を用いて場所データ23LDに従ってマクロ走査データ23内で2次元画像又は3次元画像を組み合わせて3次元のデータセット又はデータメッシュを定めることによって生成することができる。例えば、図3に示すように、マクロ走査データ23は、身体軸B-Bに沿って予め決められた間隔で離間した第1の断面データセット23’と第2の断面データセット23’’と第3の断面データセット23’’’とを含むことができる。第1のデータセット23’は、外部スキャナ22を軸B-Bに沿う第1の場所に配置し、撮像データ(例えば、23ID’)を発生させてそれに場所データ(例えば、23LD’)を関連付けることによって生成することができる。次いで、外部スキャナ22を軸B-B上の第2及び第3の位置まで移動して第2のデータセット23’’及び第3のデータセット23’’’を生成することができる。この例では、コントローラ60は、データセット23’、23’’、及び23’’’内の画像を身体軸B-Bに沿って組み合わせる(例えば、縫い合わせる)ことによって3次元データセットを生成するように構成される。3次元データセットを組み合わせる際に類似の方法を使用することができる。
他の態様では、身体情報モデル25は、外部スキャナ22を用いずに別のデバイスによって発生させてコントローラ60に送出することができる。例えば、情報モデル25は、患者の電子医療記録内に含めて送受信機66を通してプロセッサ60に送出することができる。身体情報モデル25は、ミクロ走査データ43を用い、類似の方法を用いて生成することができる。
コントローラ60は、この3次元データセット内で体腔4、身体経路5、及び経路軸P-Pの少なくとも概略的な表現を定めることができる。例えば、コントローラ60は、体腔4及び身体経路5の境界条件を自動的に定める及び/又はそこを通る身体経路軸P-Pをプロットすることができる。身体1のこの概略表現を改善するために、コントローラ60は、身体1内のターゲット場所での場所データ43LDを場所データ23LDと相関させてこれらのターゲット場所での撮像データ23IDを撮像データ43IDの相関部分と組み合わせることによって身体情報モデル25の手術前バージョンを作動的に更新するように構成される(例えば、手術中に実時間で)。例えば、身体経路軸P-Pはモデル25内で定められるので、撮像データ43IDうちで経路軸P-Pに沿う第1の場所での部分を探し出し、第1の場所で撮像データ23IDによって定められた境界条件をこの場所で撮像データ43IDによって定められた境界条件と幾何学的に整合させ(例えば、サイズ変更、移動、回転のような)、次いで、これらの段階を経路軸P-Pに沿う複数の第2の場所で繰り返すことによって場所データ43LDを場所23LDと相関させることができる。例えば、身体経路5の直径は、境界条件として使用することができる。
撮像データ23IDと43IDは様々な技術を用いて組み合わせることができる。一態様では、軸P-Pに沿う複数の場所で撮像データ43IDの一部分が撮像データ23IDの一部分の上に重ね合わせられるか又はこれらの部分と縫い合わされる。例えば、コントローラ60は、手術前身体情報モデル25内でターゲット場所を選択し、この場所に関連付けられた撮像データ23ID及び43IDを識別し、この場所でのデータ43IDの態様をデータ23ID上に重ねるように構成することができる。ターゲット場所での撮像データ43ID内に含まれる断面画像は、例えば同じ場所での撮像データ23ID内に含まれる断面画像上に重ねることができる。同様に、ターゲット場所でのデータ43ID内に含まれる3次元画像は、データ23ID内に含まれる3次元画像と互いに縫い合わせることができる。
身体情報モデル25は、撮像データ23IDを撮像データ43IDと組み合わせることによって改善することができる。例えば、撮像データ43IDは、スキャナ42の異なる性能と身体1内でのその場所とに起因して撮像データ23IDよりも高い解像度で生成することができるので、撮像データ23IDと撮像データ43IDとを組み合わせた場合に身体情報モデル25の解像度を高めることができる。更に多くの詳細を提供するために、コントローラ60は、複数の撮像要素47によって取り込まれたグラフィック画像を身体情報モデル25内の体腔4及び/又は身体経路5の表現の上に重ねて内面、体腔4、及び/又は経路5の改善された又は更には写真現実的なレンダリングをもたらすように更に構成することができる。これらのグラフィック画像は、身体情報モデル25内で場所データ23LD及び/又は43LDに従って整合及び配向させることができる(例えば、サイズ変更、シフト、回転など)。例えば、感光材料が身体経路5内に送出され、複数の光源49によって活性化された場合に、得られるいずれかの感光応答を身体情報モデル25で表すことができ、これらの応答の識別及び/又は診断が可能になる。類似の方法を用い、感光材料を用いて又は用いずに他の条件を識別及び診断することができる。
身体情報モデル25は、コントローラ60によってこれらの態様に従って発生された場合に、外部スキャナ22のみ又は内部スキャナ42のみを用いて別途可能になるものよりも遥かに詳細なデータ豊富環境とすることができる。この環境の機能を更に利用するために、コントローラ60は、モデル25の態様を2次元又は3次元のナビゲーション画像27として出力するように構成することができる。本明細書に説明する身体情報モデル25のあらゆる態様は、画像27で表すことができる。例えば、図7では、ナビゲーション画像27は、例えば、コントラスト及び色を調節すること、境界線を追加すること、ワイヤフレームモデルを生成すること、及び無関係な解剖学的構造を切り取ることによって視覚的に改善された3次元表現である。あらゆるグラフィック技術を使用することができる。例えば、図7に示すように、コントローラ60は、場所データ23LD及び43LDを用いてナビゲーション画像27を外面2と、進入点3と、内腔4と、身体経路5と、内部スキャナ42に対する身体経路軸P-Pとを描く身体1の3次元表現として出力することができる。例えば、図7の内腔4は、腎臓の内部とすることができ、ナビゲーション画像27は、尿道、膀胱、及び/又は尿管を通って腎臓内に延びる自然身体経路を通して移動するスキャナ42を描く3次元表現を提供することができる。
2次元又は3次元に関わらず、ナビゲーション画像27の多くの態様をシステム10内に実現することができる。例えば、コントローラ60は、ミクロ走査データ43をマクロ走査データ23上に重ねて身体経路5及び/又は体腔4を反復的に定めることができる。次いで、例えば、身体1の非常に詳細な2次元又は3次元のマップを提供するために、これらの境界をナビゲーション画像27上に表示することができる。これらの境界を参照して、図7のコントローラ60は、身体経路5を通る進路を例えば2次元又は3次元の通路としてナビゲーション画像27上にプロットするように構成することができる。画像27は、シャフト41を身体経路5を通してこの通路に沿って誘導するように構成することができる。例えば、場所データ43IDから身体1内のスキャナ42の場所を決定することができるので、ナビゲーション画像27は、スキャナ42を身体経路5を通して軸P-Pに沿って誘導するように構成されたグラフィックインジケータ(例えば、有向矢印)を含むことができる。
ナビゲーション画像27に応答して、ユーザは、例えば、図4Aと図4Bの間の移動によって示すようにシャフト41の遠位端41Dを身体経路5の蛇行部分を通して及び/又は体腔4の狭いコーナの周りで関節作動及び/又は前進させるように内視鏡のハンドル上のアクチュエータを操作することによって体腔4の特定の部分(例えば、腎臓の腎杯)の中にスキャナ42を誘導することができる。撮像要素47によって身体経路5の直接的な視覚化を可能にすることができるが、必要というわけではない。例えば、画像27を用いて、遠位端41Dは、体腔4内の腎臓結石に向けて、この結石が狭い腎杯内にあり、混濁液によって囲まれている場合であっても、生体インピーダンス変化、呼吸パターン、又は体液ステータスに関係なく位置電極又は視覚画像を頼りとせずに誘導することができる。コントローラ60は、遠位端41Dを更に誘導するために、聴覚又は触覚フィードバック信号を生成するなどで追加のナビゲーション及び目印特徴を提供するように構成することができる。
コントローラ60は、身体1内で意図する1又は2以上の物体又は場所を識別し、及び/又はこれらの物体又は場所の特性を決定するように構成することができる。ナビゲーション画像27は回転及びズームを可能にすることができ、意図する物体又は場所の最適な観察、及び/又は特定の物体又場所の選択を可能にする。従って、コントローラ60は、ユーザがナビゲーション画像27を用いて手術を計画し、手術中に例えば体腔4の処置された部分をマーク付けすることによって画像27に注釈を付けることを可能にすることができる。更に別の例として、プローブ52によって発生される波エネルギを利用して、体腔4内の腎臓結石を識別し、身体情報モデル25内で各腎臓結石の場所を決定し、各結石の特性(例えば、組成、密度、脆性、及び/又はサイズ)を確認することができる。
コントローラ60は、ターゲット特性を有する結石を識別する、ナビゲーション画像27内でこれらのターゲット結石を1又は2以上のタグ又はアイコンに関連付ける、ユーザがターゲット結石を除去した(又は捉え損ねた)か否かを決定する、及び/又は体腔4から全ての結石がなくなったことを検証するように更に構成することができる。迅速な識別を容易にするために、各ターゲット結石に、例えば、異なるタグ又はアイコンを関連付けることができる。これらのタグ又はアイコンは、結石のサイズ、例えば、結石の最大幅を示すことができる。コントローラ60は、各結石の最大幅を回収デバイスの予め決められた最大サイズ(例えば、回収バスケット又は回収チャネルの最大直径)と比較し、各結石をこのデバイスを用いて除去することができるか否かを示し、ユーザが、追加の処置を必要とするか否かを決定することを可能にするように構成することができる。例えば、結石は、最大幅を決定するようなサイズを有する回収バスケット内に捕捉され、捕捉した結石を更に別の処置なく当該回収バスケット内で除去することができるか否かを示すタグ又はアイコンに関連付けることができる。これらのタグ又はアイコンは、例えば、捕捉された結石を解除して小さめのプロファイルの向きに再捕捉した場合に除去することができるか否か、及び/又はレーザエネルギを用いて処置して捕捉結石のサイズを縮小することができるか否かを示すことができる。
体腔4及び/又は身体経路5の特性(例えば、サイズ、面積、又は体積)を決定し、体腔4及び/又は経路5をこれらの特性に関連付ける際に類似の技術を使用することができる。例えば、体腔4及び経路5のそれぞれの体積を通信するために、体腔4及び/又は身体経路5内の様々な自然なマーカをナビゲーション画像27内でタグ及びアイコンに関連付けることができる。
次いで、ナビゲーション構成要素40及びコントローラ60の追加の又は代わりの態様を図8A~図8Bを参照して説明する。システム10は、これらの態様と本明細書に説明するいずれかの他の態様とのあらゆる組合せを含むことができ、各可能な組合せは本発明の開示の一部である。
一部の追加の態様により、コントローラ60は、ミクロ走査シーケンスを実施するように構成される。例えば、複数の撮像要素47、複数の光源49、及びプローブ52を予め決められたシーケンスで作動させることができ、位置付けユニット70は、予め決められたシーケンスで作動される度に場所データ43LDを生成することができる。従って、システム10は、例えば画像27の望ましいリフレッシュ速度(例えば、60hz又は120Hz)と一致する連続作動速度を有する第1のモード、望ましい撮像方法又は処置方法(例えば、光過敏性反応)と一致するパルス作動速度及び/又は交互作動速度を有する第2のモード、及び/又は内部スキャナ42が身体経路軸P-Pに沿って予め決められた距離(例えば、<1mm)移動される度にミクロ走査データ43が自動的に発生される第3のモード中に切換可能にすることができる。
図1及び図4A~図4Bには磁場発生器44を平面要素として示すが、磁場発生器44は、あらゆる形状を取ることができ、あらゆる個数の磁場発生要素を含むことができる。例えば、図8Aには、代替磁場発生器144は、身体1が各マクロ走査及び/又はミクロ走査間の期間中に移動される場合であってもセンサ50を追跡するための固定基準フレームを設けるために身体1の一部分(例えば、背中)に直接に取り付けられる(例えば、接着される)可撓性要素として示している。発生器44は、身体1に対する基準場所を与えることができるベッド8(図1)と一体形成することができる。
一部の態様では、追跡センサ50は、追加又は代替追跡デバイスと共に作動可能である。例えば、センサ50は、図8Bに身体1の周りに巻き付けられたものとして示すセンサベルト244と共と作動可能とすることができる。図示のように、ベルト244は、3つの外部センサ246を含むが、あらゆる個数のセンサを設けることができる。図8Bのベルト244は、センサ246が身体1の身体軸B-Bの周りにほぼ三角形の構成で配置されるように身体1の正中軸の周りに巻き付けられる。この構成では、センサ246は、追跡センサ250がベルト244の内径を通して移動される時に追跡センサ250に関する場所データ43LDを生成することができる。例えば、図5Bでは、追跡センサ250は、細長要素の遠位部分上に位置付けられたRFIDセンサ又はアンテナを含み、センサ246は、細長要素がベルト244を通過する時に場所データ43LDを生成するようにRFIDセンサと共に作動可能である。ベルト244は、狭い幅(例えば、1~3インチ)を有することができ、又はスリーブを定めるように細長とすることができる。一部の態様では、ベルト244は、ベルト244を身体1に対する固定位置に保持するように構成された引張要素(例えば、弾性バックルのような)を含む。
更に他の態様では、内部スキャナ42は、シャフト41の形状から場所データ43LDを決定するように構成された形状感知機構を含むことができる。例えば、形状感知機構は、シャフト41の長さに沿う様々な位置で細長シャフト41の応力及び撓みを測定し、そこから場所データ43LDをシャフト41に印加されたいずれかの温度又は負荷とは独立に決定するように構成することができる。一部の態様では、形状感知機構は、シャフト41内を延びる光ファイバ、例えば、ファイバブラッググレーティング(FBG)ファイバ内に含めることができる。他の例示的な形状感知ファイバは、Luna Inventions(登録商標)によって販売されているもの(例えば、https://www.youtube.com/watch?v=Yc8Q-CxvDKU(2008年1月14日にアップロードされた)において情報利用可能な「光ファイバの形状及び位置の感知(Fiber Optic Shape and Position Sensing)」を参照されたい)、及び/又は2014年3月11日に出願されて全内容が引用によって本明細書に組み込まれている米国特許公開第2014/0257095号明細書に記載されているものを含むことができる。
必要ではないが、身体情報モデル25に応答して身体経路5を少なくとも部分的に通じて及び/又は体腔4内にナビゲーション画像27を用いて又は用いずにシャフト41をステアリングするようにコントローラ60を構成することができる。例えば、シャフト41は、複数の電気応答性関節セクションを含むことができ、コントローラ60は、近位方向又は遠位方向へのジョイスティックの移動及び/又は体腔4の場所に関する確認のようなユーザ入力に応答してステアリング信号を生成するように構成されたステアリングモジュール74(図4の上に点線に示す)を含むことができる。ステアリングモジュール74は、ステアリング信号を用いてシャフト41の複数の電気応答性関節セクションを選択的に作動させることができる。ユーザ入力は、正確又は精密である必要はない。例えば、身体情報モデル25は、詳細な3次元データセットを含むので、ステアリングモジュール74は、一般的なユーザ入力(例えば、ジョイスティックの前方移動)に応答して身体経路5の一部分を通る正確な進路を自動的にプロットし、及び/又はこの進路上でユーザからの正確な修正なしに身体経路5を通してシャフト41をステアリングするように構成することができる。
例示的方法を本明細書に説明するシステム10の様々な要素を参照して図9A~図9Bに示している。次いで、これらの方法の多くの態様を説明する。図9Aに示す一態様により、例示的方法300は、マクロ走査データ23を受信する段階(310)と、マクロ走査データ23を用いて手術前身体情報モデル25を生成する段階(320)と、手術中にミクロ走査データ43を受信する段階(330)と、ミクロ走査データ43の一部分とマクロ走査データ23の相関部分とを組み合わせることによって身体情報モデルを更新する段階(340)とを含むことができる。
方法300では、マクロ走査データ23は、手術の前に撮影された診断前及び/又は手術前の画像を含むことができる。各画像は、外部スキャナ22によって生成することができる。例えば、方法300は、310において、波エネルギ(例えば、光、音、X線のような)を身体1の外面2に向けて誘導する段階と、波エネルギの反射部分を受波する段階と、身体1の波エネルギ画像を含む撮像データ23IDを生成する段階とを更に含むことができる。波エネルギは、波エネルギ画像が身体1の断面画像(例えば、図2A)を含むように撮像軸I-Iに沿って誘導することができる。方法段階310は、身体1の身体軸B-Bに沿う複数の位置で繰り返すことができる。例えば、段階310は、外部スキャナ22を身体1の身体軸B-Bに沿う複数の位置に位置決めする段階と、これら複数の位置の各々での撮像データ23ID及び場所データ23LDを含むマクロ走査データ23を生成する段階と、マクロ走査データ23をコントローラ60に出力する段階とを含むことができる。
方法300は、段階320において、マクロ走査データ23を用いて手術前身体情報モデル25を生成する段階を含む。マクロ走査が完了した後に、方法段階320を方法310の後に常に行うことができるように身体1を移動することができる。前の例を踏まえて、方法段階320は、場所データ23LDに従ってマクロ走査データ23を組み合わせて3次元データセットを定める段階を含むことができる。段階320は、この3次元データセット内の体腔4、身体経路5、及び経路軸P-Pの少なくとも概略的な表現を提供する段階を更に含むことができる。
上述のように、身体情報モデル25は、外部スキャナ22を用いずに別のデバイスが発生させてコントローラ60に送出することができ、この場合に、方法300は、段階310及び300において、送受信機66を用いてモデル25を受信する段階を含むことができる。例えば、方法300は、患者の電子医療記録から身体情報モデル25を受信する段階、本明細書に説明するようにモデル25の態様を修正する段階、及び/又は相応に電子医療記録を更新する段階を含むことができる。
ミクロ走査データ43は、手術中に撮影された2次元又は3次元の画像を含むことができる。これらの画像の各々は、内部スキャナ42が生成することができる。例えば、プローブ52に起因して、方法300は、段階320において、波エネルギ(例えば、光、音、X線のような)を身体1の内面に向けて誘導する段階と、波エネルギの反射部分を受波する段階と、身体1の波エネルギ画像を含む撮像データ43IDを生成する段階とを含むことができる。各波エネルギ画像は、例えば、身体経路5の断面画像(例えば、図6A)を含むことができる。同じく撮像要素47からのグラフィック画像を撮像データ43ID内に含めることができる。従って、方法段階330は、内部スキャナ42を経路軸P-Pに沿う複数の位置に位置決めする段階と、これら複数の位置の各々での撮像データ43ID及び場所データ43LDを含むミクロ走査データ43を生成する段階と、データ43を出力する段階とを含むことができる。
図9Aの方法段階340は、ミクロ走査データ43の一部分をマクロ走査データ23の相関部分と組み合わせることによって手術前身体情報モデル25を更新する段階を含む。一部の態様では、情報モデル25は、内部スキャナ22が身体1の中を通して移動される時に実時間で更新される。例えば、段階340は、身体1内のターゲット場所での場所データ23LDを場所データ43LDと相関させる段階と、このターゲット場所での撮像データ23IDを撮像データ43IDと組み合わせる段階とを含むことができる。場所データ23LDと43LDは、身体情報モデル25内でいずれかの技術を用いて相関させることができる。マクロ走査データ23とミクロ走査データ43を組み合わせるあらゆる手段を段階330において同じく使用することができる。例えば、撮像データ43ID内に含まれる2次元断面超音波画像を撮像データ23ID内に含まれる2次元断面X線画像の上に重ねて体腔4及び/又は身体経路5の境界条件を更新することができる。同様に、データ23ID内の3次元画像の一部分をデータ43ID内の2次元画像と重ねるか、又はデータ23ID内の3次元画像の一部分と互いに縫い合わせることができる。
方法300のための追加の段階は、身体情報モデル25の一部分をナビゲーション画像27として出力する段階(350)と、画像27に応答して又はその関数として身体1の中を通してシャフト41を誘導する段階(360)とを含むものとして図9Bに描いている。ナビゲーション画像27は、いずれかの技術を用いて発生された2次元又は3次元の画像とすることができる。例えば、方法段階350は、身体情報モデル25内に含まれる3次元データセットをグラフィック的にレンダリングする段階を含むことができる。ナビゲーション画像27は、段階350で改善することができる。例えば、段階350は、体腔4及び/又は身体経路5の境界条件を特定の色又は線の太さに関連付ける段階を含むことができる。更に別の例として、段階350は、撮像要素47からのグラフィック画像をこれらの境界条件の上に重ねる段階を更に含むことができる。
段階360での方法300は、誘導段階を含むことができる。例えば、方法段階360が、最適な経路5に関するユーザ入力を取得する段階を含むように、複数の身体経路5を身体1の中を通して定めることができる。段階360は、経路5を通して細長シャフト41を誘導するように構成された1又は2以上のグラフィックインジケータ(例えば、有向矢印)を生成する段階を更に含むことができる。段階360では、聴覚又は触覚フィードバック信号を生成するなどで追加のナビゲーション及び目印特徴を提供することができる。方法300では身体1内の追加のターゲットを識別することができる。例えば、段階360は、体腔4内で意図する1又は2以上の物体又は場所を識別する段階と、特定の物体又は場所の特性に基づいてそれに向けて細長シャフト41の遠位端41Dを誘導する段階とを更に含むことができる。図9A~図9Bには示していないが、本明細書に説明するシステム10のいずれかの態様に関して追加の方法段階を設けることができる。
本明細書では本発明の開示の原理を特定の用途に対する例示的態様を参照して説明したが、本発明の開示はこれらの態様に限定されない。本明細書に提供した教示を利用することができる当業者は、追加の修正、用途、態様、及び均等物の置換が全て本明細書に説明した態様の範囲に収まることを認識するであろう。従って、本発明の開示は、以上の説明によって限定されるように考えないものとする。

Claims (15)

  1. 身体(1)の第1の画像と各第1の画像に関連付けられた第1の場所データ(23LD)とを含むマクロ走査データ(23)を受信するように構成された送受信機(66)と、
    前記第1の場所データ(23LD)に従って前記第1の画像を組み合わせて身体情報モデル(25)を生成するように構成されたコントローラ(60)と、
    身体(1)内のミクロ走査データ(43)を生成するように構成され、前記ミクロ走査データ(43)は、身体(1)の第2の画像と各第2の画像に関連付けられた第2の場所データ(43LD)とを含むナビゲーション構成要素(40)と、を備え、
    前記コントローラ(60)は、前記身体情報モデル(25)内のターゲット場所で前記第1の場所データ(23LD)を前記第2の場所データ(43LD)と相関させ、前記ターゲット場所で前記第1の画像を前記第2の画像と組み合わせることによって前記身体情報モデル(25)を修正し、前記身体情報モデルの一部分をナビゲーション画像として出力し、前記ナビゲーション画像内で前記身体を通る経路を識別し、前記経路を通じて前記ナビゲーション構成要素を誘導するように構成された少なくとも1つのグラフィック目印を生成し、前記ナビゲーション画像と前記少なくとも1つのグラフィック目印とに応答した前記経路を通して前記ナビゲーション構成要素を誘導する、
    ことを特徴とする誘導システム(10)。
  2. 前記ナビゲーション構成要素(40)は、細長シャフト(41)と、前記細長シャフト(41)の遠位部分(41D)上に位置付けられた内部スキャナ(42)とを含み、
    前記内部スキャナ(42)は、前記身体(1)内の前記ミクロ走査データ(43)を生成するように構成された、
    ことを特徴とする請求項1に記載の誘導システム(10)。
  3. 前記内部スキャナ(42)は、前記身体(1)の波エネルギ画像を生成するように構成されたプローブ(52)を含み、前記第2の画像は、該波エネルギ画像を含む、
    ことを特徴とする請求項2に記載の誘導システム(10)。
  4. 前記プローブ(52)は、前記身体の超音波画像を生成するように構成された1又は2以上の超音波変換器を含む、
    ことを特徴とする請求項3に記載の誘導システム(10)。
  5. 前記プローブ(52)は、前記身体(1)のレーザ画像を生成するように構成された1又は2以上のレーザ源を含む、
    ことを特徴とする請求項3又は請求項4に記載の誘導システム(10)。
  6. 前記内部スキャナ(42)は、電磁スペクトルの1又は2以上の周波数でグラフィック画像を生成するように構成された複数の撮像要素(47)を含み、前記第2の画像は、該グラフィック画像を含む、
    ことを特徴とする請求項2に記載の誘導システム(10)。
  7. 前記複数の撮像要素(47)は、可視光範囲の該グラフィック画像を生成するように構成された、
    ことを特徴とする請求項6に記載の誘導システム(10)。
  8. 前記内部スキャナ(41)は、複数の光源(49)を含み、
    前記複数の撮像要素(47)とは独立に又はそれと共に作動されるように構成された、
    ことを特徴とする請求項6又は請求項7に記載の誘導システム(10)。
  9. 前記内部スキャナ(42)は、前記身体(1)の波エネルギ画像を生成するように構成されたプローブ(52)を含み、前記複数の撮像要素(47)と、前記複数の光源(49)と、前記プローブ(52)とは、予め決められたシーケンスで作動されるように構成され、位置付けユニット(70)は、前記撮像要素(47)と、前記光源(49)と、前記プローブ(52)が前記予め決められたシーケンス作動される度に前記場所データ(43LD)を生成するように構成された、
    ことを特徴とする請求項8に記載の誘導システム(10)。
  10. 前記予め決められたシーケンスは、60Hz又はそれよりも高い
    ことを特徴とする請求項9に記載の誘導システム(10)。
  11. 前記ナビゲーション構成要素(40)は、細長シャフト(41)を含み、前記細長シャフト(41)の遠位部分(41D)は、前記身体(1)にわたって移動されるように構成された、
    ことを特徴とする請求項1から請求項10のいずれか1項に記載の誘導システム(10)。
  12. 前記細長シャフト(41)の前記遠位部分(41D)は、前記場所データ(43LD)を生成するように構成された追跡センサ(50)を含む、
    ことを特徴とする請求項11に記載の誘導システム(10)。
  13. 前記追跡センサ(50)は、磁場に応答することを特徴とする請求項12に記載の誘導システム(10)。
  14. 前記マクロ走査データ(23)は、前記身体(1)の第1の画像を含む第1の画像データ(23ID)と前記第1の場所データ(23LD)とを含み、
    前記ミクロ走査データ(43)は、前記身体(1)の第2の画像を含む第2の画像データ(43ID)と前記第2の場所データ(43LD)とを含み、
    前記コントローラ(60)は、前記第1の画像データ(23ID)の部分上に第2の画像データ(43ID)の部分を重ね、又は、第1の画像データ(23ID)の部分と前記第2の画像データ(43ID)の部分とを縫い合わせるように更に構成された、
    ことを特徴とする請求項1から請求項13のいずれか1項に記載の誘導システム(10)。
  15. 前記コントローラは、前記ターゲット場所での前記第2の画像データ(43ID)内に含まれる断面画像を、同じ場所での前記第1の画像データ(23ID)内に含まれる断面画像上に重ねるように更に構成され、
    前記少なくとも1つのグラフィック目印は、前記ナビゲーション構成要素を誘導するように構成された有向矢印、聴覚フィードバック信号または触覚フィードバック信号を含む、
    ことを特徴とする請求項14に記載の誘導システム(10)。
JP2019524210A 2016-11-11 2017-11-09 誘導システム Active JP7250675B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662420891P 2016-11-11 2016-11-11
US62/420,891 2016-11-11
PCT/US2017/060852 WO2018089627A2 (en) 2016-11-11 2017-11-09 Guidance systems and associated methods

Publications (2)

Publication Number Publication Date
JP2019533540A JP2019533540A (ja) 2019-11-21
JP7250675B2 true JP7250675B2 (ja) 2023-04-03

Family

ID=60702953

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019524210A Active JP7250675B2 (ja) 2016-11-11 2017-11-09 誘導システム

Country Status (6)

Country Link
US (2) US10911693B2 (ja)
EP (1) EP3538009A2 (ja)
JP (1) JP7250675B2 (ja)
CN (2) CN114795081A (ja)
AU (1) AU2017359466B2 (ja)
WO (1) WO2018089627A2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020087000A1 (en) * 2018-10-26 2020-04-30 Adventist Health System/Sunbelt, Inc. Intravascular ultrasound catheter systems
US11696671B2 (en) * 2019-08-19 2023-07-11 Covidien Ag Steerable endoscope with motion alignment
JP7389242B2 (ja) * 2019-10-07 2023-11-29 ボストン サイエンティフィック サイムド,インコーポレイテッド 第1のトランスデューサと第2のトランスデューサとの間に関節継手を備える医療装置並びにその具現化のための装置及び記憶装置
WO2021097241A1 (en) * 2019-11-15 2021-05-20 Verily Life Sciences Llc Robotic surgery depth detection and modeling
CN116919599B (zh) * 2023-09-19 2024-01-09 中南大学 一种基于增强现实的触觉可视化手术导航系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006513011A (ja) 2003-01-13 2006-04-20 メディガイド リミテッド 第1座標系に関係する医療情報をmpsシステムを使用する第2座標系において位置合わせする方法及びシステム
JP2008142355A (ja) 2006-12-11 2008-06-26 Aloka Co Ltd 画像形成システム
US20080287783A1 (en) 2007-05-16 2008-11-20 General Electric Company System and method of tracking delivery of an imaging probe
US20100210902A1 (en) 2006-05-04 2010-08-19 Nassir Navab Virtual Penetrating Mirror Device and Method for Visualizing Virtual Objects in Endoscopic Applications
US20110274323A1 (en) 2010-05-05 2011-11-10 Klaus Klingenbeck Imaging method for the representation of the results of intravascular imaging and CFD results and medical system for execution of the method
WO2016018646A1 (en) 2014-07-28 2016-02-04 Intuitive Surgical Operations, Inc. Systems and methods for intraoperative segmentation

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6671538B1 (en) * 1999-11-26 2003-12-30 Koninklijke Philips Electronics, N.V. Interface system for use with imaging devices to facilitate visualization of image-guided interventional procedure planning
US6835173B2 (en) 2001-10-05 2004-12-28 Scimed Life Systems, Inc. Robotic endoscope
US20060089626A1 (en) * 2004-10-22 2006-04-27 Vlegele James W Surgical device guide for use with an imaging system
CN101128151A (zh) * 2004-11-02 2008-02-20 宾夕法尼亚大学受托人 用于在病人体内精确放置医用导管的光学引导系统
EP1903944B1 (en) 2005-06-24 2017-04-19 Volcano Corporation Co-registration of graphical image data representing three-dimensional vascular features
US20070016029A1 (en) 2005-07-15 2007-01-18 General Electric Company Physiology workstation with real-time fluoroscopy and ultrasound imaging
EP1923756B1 (en) 2006-11-07 2009-04-29 BrainLAB AG Method and system for region of interest calibration parameter adjustment of tracking systems
JP5191167B2 (ja) 2007-06-06 2013-04-24 オリンパスメディカルシステムズ株式会社 医用ガイドシステム
US8260395B2 (en) 2008-04-18 2012-09-04 Medtronic, Inc. Method and apparatus for mapping a structure
US8834357B2 (en) 2008-11-12 2014-09-16 Boston Scientific Scimed, Inc. Steering mechanism
EP2437676A1 (en) * 2009-06-01 2012-04-11 Koninklijke Philips Electronics N.V. Distance-based position tracking method and system
DE102009048072A1 (de) * 2009-10-01 2011-04-07 Siemens Aktiengesellschaft Zentralisierte Bildrekonstruktion für tomographische Bildgebungsverfahren in der Medizintechnik
US20120157844A1 (en) 2010-12-16 2012-06-21 General Electric Company System and method to illustrate ultrasound data at independent displays
US9498182B2 (en) * 2012-05-22 2016-11-22 Covidien Lp Systems and methods for planning and navigation
US9439622B2 (en) * 2012-05-22 2016-09-13 Covidien Lp Surgical navigation system
EP2934335A4 (en) 2012-12-21 2016-07-20 Volcano Corp ADAPTIVE INTERFACE FOR A MEDICAL IMAGING SYSTEM
US20140257095A1 (en) 2013-03-11 2014-09-11 Volcano Corporation Shape sensing interventional catheters and methods of use
US9459770B2 (en) * 2013-03-15 2016-10-04 Covidien Lp Pathway planning system and method
US9592095B2 (en) * 2013-05-16 2017-03-14 Intuitive Surgical Operations, Inc. Systems and methods for robotic medical system integration with external imaging
CN103735312B (zh) * 2013-12-11 2016-01-27 中国科学院深圳先进技术研究院 多模影像超声引导手术导航系统
WO2015101949A1 (en) * 2014-01-02 2015-07-09 Koninklijke Philips N.V. Instrument alignment and tracking with ultrasound imaging plane
JP6145892B2 (ja) * 2014-09-22 2017-06-14 富士フイルム株式会社 医用画像処理装置、方法およびプログラム
WO2016195698A1 (en) * 2015-06-05 2016-12-08 Siemens Aktiengesellschaft Method and system for simultaneous scene parsing and model fusion for endoscopic and laparoscopic navigation
KR102676381B1 (ko) * 2015-10-30 2024-06-20 아우리스 헬스, 인코포레이티드 경피적 수술을 위한 방법
US11793579B2 (en) * 2017-02-22 2023-10-24 Covidien Lp Integration of multiple data sources for localization and navigation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006513011A (ja) 2003-01-13 2006-04-20 メディガイド リミテッド 第1座標系に関係する医療情報をmpsシステムを使用する第2座標系において位置合わせする方法及びシステム
US20100210902A1 (en) 2006-05-04 2010-08-19 Nassir Navab Virtual Penetrating Mirror Device and Method for Visualizing Virtual Objects in Endoscopic Applications
JP2008142355A (ja) 2006-12-11 2008-06-26 Aloka Co Ltd 画像形成システム
US20080287783A1 (en) 2007-05-16 2008-11-20 General Electric Company System and method of tracking delivery of an imaging probe
US20110274323A1 (en) 2010-05-05 2011-11-10 Klaus Klingenbeck Imaging method for the representation of the results of intravascular imaging and CFD results and medical system for execution of the method
WO2016018646A1 (en) 2014-07-28 2016-02-04 Intuitive Surgical Operations, Inc. Systems and methods for intraoperative segmentation

Also Published As

Publication number Publication date
JP2019533540A (ja) 2019-11-21
CN109937021A (zh) 2019-06-25
WO2018089627A2 (en) 2018-05-17
EP3538009A2 (en) 2019-09-18
US20180139392A1 (en) 2018-05-17
CN114795081A (zh) 2022-07-29
US10911693B2 (en) 2021-02-02
AU2017359466A1 (en) 2019-05-16
US20210127072A1 (en) 2021-04-29
AU2017359466B2 (en) 2023-05-04
CN109937021B (zh) 2022-06-24

Similar Documents

Publication Publication Date Title
JP7250675B2 (ja) 誘導システム
CN105934215B (zh) 具有光学形状感测的成像设备的机器人控制
KR102558061B1 (ko) 생리적 노이즈를 보상하는 관강내 조직망 항행을 위한 로봇 시스템
US20220313375A1 (en) Systems and methods for robotic bronchoscopy
CN104470575B (zh) 配置微创器械中的部件的系统和方法
CN105979879B (zh) 具有光学形状感测设备视角的虚拟图像
US7742797B2 (en) Device and method for intraluminal imaging for the reconstruction of 3D image data sets
CN111867481A (zh) 确定和可视化解剖学标志用于管腔内损伤评估和处置规划
US20090208143A1 (en) Efficient automated urothelial imaging using an endoscope with tip bending
JP2005177477A (ja) カテーテル装置
JP2007083038A (ja) 医療装置を管腔内の選択位置に搬送するための方法及びシステム
CN108471998A (zh) 在融合图像引导系统中使用注释对临床视图进行自动化探头操纵
CN105208960A (zh) 用于与外部成像集成的机器人医疗系统的系统和方法
JP2004261579A (ja) 高勾配型再帰位置決めシステム
CN108135531A (zh) 用于利用光学形状感测的导丝来放置设备的衬套
JP6706576B2 (ja) 最小侵襲性のインターベンションのための形状センスされるロボット超音波
US20220047339A1 (en) Endoluminal robotic (elr) systems and methods
CN102309342A (zh) 经食道超声心动检查胶囊
JP7566165B2 (ja) 仮想の衛星標的を用いた腔内ナビゲーション
EP3383305A1 (en) System and workflow for grid-less transperineal prostate interventions
US20240238049A1 (en) Medical instrument guidance systems and associated methods
JP2017225700A (ja) 観察支援装置及び内視鏡システム
JP7319248B2 (ja) 位置追跡型インターベンショナルデバイスの自動視野更新
CN116261419A (zh) 用于三重成像混合探头的系统和方法
US20240153113A1 (en) Systems and methods for registering intraoperative image data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210929

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220404

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220704

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230322

R150 Certificate of patent or registration of utility model

Ref document number: 7250675

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150