[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2019534717A - 医療処置における感覚増強のためのシステム - Google Patents

医療処置における感覚増強のためのシステム Download PDF

Info

Publication number
JP2019534717A
JP2019534717A JP2019506669A JP2019506669A JP2019534717A JP 2019534717 A JP2019534717 A JP 2019534717A JP 2019506669 A JP2019506669 A JP 2019506669A JP 2019506669 A JP2019506669 A JP 2019506669A JP 2019534717 A JP2019534717 A JP 2019534717A
Authority
JP
Japan
Prior art keywords
mixed reality
surgical
user interface
virtual
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019506669A
Other languages
English (en)
Inventor
リャン,マシュー,ウイリアム
ハートマン,アンドリュー,フィリップ
デア ウォルト,ニコラス ヴァン
デア ウォルト,ニコラス ヴァン
Original Assignee
インサイト メディカル システムズ インコーポレイテッド
インサイト メディカル システムズ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インサイト メディカル システムズ インコーポレイテッド, インサイト メディカル システムズ インコーポレイテッド filed Critical インサイト メディカル システムズ インコーポレイテッド
Publication of JP2019534717A publication Critical patent/JP2019534717A/ja
Priority to JP2022084943A priority Critical patent/JP2022116157A/ja
Priority to JP2024120717A priority patent/JP2024153759A/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/00048Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/0004Operational features of endoscopes provided with input arrangements for the user for electronic operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/317Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for bones or joints, e.g. osteoscopes, arthroscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/14Surgical saws ; Accessories therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/14Surgical saws ; Accessories therefor
    • A61B17/15Guides therefor
    • A61B17/154Guides therefor for preparing bone for knee prosthesis
    • A61B17/157Cutting tibia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/1662Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body
    • A61B17/1664Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body for the hip
    • A61B17/1666Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body for the hip for the acetabulum
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/1662Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body
    • A61B17/1671Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body for the spine
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/17Guides or aligning means for drills, mills, pins or wires
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00203Electrical control of surgical instruments with speech control or speech recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/02Surgical instruments, devices or methods, e.g. tourniquets for holding wounds open; Tractors
    • A61B17/025Joint distractors
    • A61B2017/0268Joint distractors for the knee
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • A61B2034/207Divots for calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/368Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/32Joints for the hip
    • A61F2/34Acetabular cups
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/38Joints for elbows or knees
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/38Joints for elbows or knees
    • A61F2/3886Joints for elbows or knees for stabilising knees against anterior or lateral dislocations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/46Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor
    • A61F2/4603Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor for insertion or extraction of endoprosthetic joints or of accessories thereof
    • A61F2/4609Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor for insertion or extraction of endoprosthetic joints or of accessories thereof of acetabular cups
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/46Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor
    • A61F2/4684Trial or dummy prostheses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/32Joints for the hip
    • A61F2/34Acetabular cups
    • A61F2002/3401Acetabular cups with radial apertures, e.g. radial bores for receiving fixation screws
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/32Joints for the hip
    • A61F2/34Acetabular cups
    • A61F2002/3401Acetabular cups with radial apertures, e.g. radial bores for receiving fixation screws
    • A61F2002/3403Polar aperture

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Gynecology & Obstetrics (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Processing Or Creating Images (AREA)
  • Surgical Instruments (AREA)
  • Prostheses (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

本発明は、処理ユニット(102)、ディスプレイジェネレータ(204)、および少なくとも1つのカメラ(206)を有するセンサ群(210)を有する表示装置(104)と、手術器具(608)に固定して取り付けらてる少なくとも1つのマーカー(600)を含む複合現実外科手術ナビゲーションシステム(10)を提供しており、システム(10)は、関心のある解剖学的対象(604)の部分的に露出された表面の三次元表面をマッピングし、手術器具(608)の6自由度の姿勢を追跡し、ユーザ(106)の視野内に、手術器具(608)の所望の特徴と解剖学的対象(604)の所望の特徴の立体虚像を含む複合現実感ユーザ・インターフェースを提供する。本発明は、様々な医療処置においてシステムを使用する方法を提供する。【選択図】図36A

Description

出願日の利益を主張
本出願は、2016年8月16日に出願された「医療処置における感覚増強のためのシステムおよび方法」という名称の米国仮出願第60/375、483号の利益を主張する。
本発明は、外科的、診断的、治療的および麻酔的処置を含むがこれらに限定されない医療処置中の位置決め、位置特定、状況認識のための新規の視覚化および感覚増強デバイス、システム、方法および装置に関する。
患者の変化に影響を与える必要なツールを除いては、ほとんど、またはまったくアシスタンスなしで、現在の医療処置は、通常、外科医または医療専門家によって行われている。例えば、整形外科医は、いくつかの測定器具(例えば定規または類似物)および切断器具(例えば鋸またはドリル)を有してもよいが、外科医への視覚的、聴覚的および触覚的な入力は、アシストされない。つまり、外科医は、手術しているもの以外何も見えず、手術室の他のアシスタントからの通常のコミュニケーション言語以外は何も聞こえず、握っているツールからの通常のフィードバックまたは処置において興味のある他のアイテムを除いて、何も感じない。あるいは、ディスプレイおよびカメラが、外科医から離れた無菌領域の外側に配置される大型コンソール型ナビゲーションまたはロボットシステムが使用される。上記により、外科医は、手術部位と二次元ディスプレイとの間で視線を繰り返しずらす必要がある。ドレープ、人員または器具が無菌領域のマーカーのカメラの視界を遮る場合、カメラから離れた場所では、視線の問題が生じ、カメラの視点は、外傷内のイメージングには役立たない。解剖学的登録は、通常、マーカーがカメラから見えるように、探査するマーカーを備えたスタイラスを用いて行われる。
本発明は、外部スクリーンを見るための不自然な動きまたはユーザの頭の回転を必要としない処置を、視覚的にユーザの視野に入れるために必要なフィードバックの投影を提供する。増強された又は仮想のディスプレイは、ユーザの視覚の自然な拡張または強化として、ユーザに明示される。ユーザのヘッドピースに配置されるセンサとカメラは、ユーザと同じ視点をもっており、それにより、外部カメラに関連するラインオブサイトの不明瞭問題が最小限に抑えられる。本発明の解剖学的表面砂特徴の3Dマッピングおよびそれらを術前スキャンからのモデルと照合することは、現在のスタイラスポイントクラウドアプローチより早く、手術中の解剖学的構造を登録するためのより正確な方法を表す。
本発明は、新規な感覚増強デバイスまたは装置を備え、該デバイスまたは装置は、一般にユーザの視覚的、聴覚的、または触覚的感覚のための、医療処置の実施をアシストする少なくとも1つの増強からなる。視覚支援は、拡張現実の形態でのユーザの視野上のリアルタイム視覚オーバーレイの形態で、または仮想現実の形態での視覚シーンの代替として提供することができる。聴覚支援は、単純なビープ音やトーン、または会話や指導のようなより複雑な音の形態で提供できる。触覚支援は、ユーザをガイドする目的で、単純な警告触覚フィードバックまたはより複雑な触覚生成の形態で提供される。好ましい実施形態において、視覚的な(増強されたまたは仮想の)支援は、音声フィードバックまたは触覚フィードバック、あるいは音声フィードバックおよび触覚フィードバックの両方によって補足されるであろう。
本発明は、複合現実外科手術ナビゲーションシステムを提供し、該システムは、処理ユニット、ディスプレイジェネレータ、および少なくとも1つの追跡カメラを有するセンサ群を有する、手術中にユーザ(例えば外科医)によって着用される頭部装着型表示装置(例えばヘッドセットなど)を備え、手術器具に固定して取り付けられた、カメラによって追跡可能な少なくとも1つの視覚的マーカー、処理ユニットは、関心のある解剖学的対象の部分的に露出された表面の三次元表面を、センサ群から受信したデータを使用してマッピングし、処理ユニットは、三次元表面を解剖学的対象の三次元モデルに一致させることによって、解剖学的対象に対する基準フレームを確立し、処理ユニットは、センサ群から受信したデータを用いて、手術器具の6自由度の姿勢を追跡し、処理ユニットは、ディスプレイと通信して、手術器具の所望の特徴およびユーザの視野内の解剖学的対象の所望の特徴の立体虚像を含む複合現実感ユーザ・インターフェースを提供する。
本発明は、さらに、医療処置のために複合現実外科手術ナビゲーションシステムを使用する方法を提供し、該方法は、(a)(i)処理ユニット、ディスプレイ、および少なくとも1つの追跡カメラを有するセンサ群を有する頭部装着型表示装置および(ii)カメラによって追跡可能な少なくとも1つの視覚的マーカーを有する、複合現実外科手術ナビゲーションシステムを提供することと、(b)表示装置をユーザの頭に取り付けることと、(c)マーカーを有する手術器具を提供することと、(d)解剖学的対象の所望の特徴の三次元表面のデータを得るために、センサ群を用いて、関心のある解剖学的対象をスキャンすることと、(e)解剖学的対象の所望の特徴の仮想三次元モデルの登録のために、三次元表面のデータを処理ユニットに送信することと、(f)処理ユニットに送信するためのデータを取得するために、センサ群を使用して、手術器具の6自由度の姿勢を追跡することと、(g)ユーザの視野内に、手術器具の特徴および解剖学的対象の特徴の立体虚像を備える複合現実感ユーザ・インターフェースを表示することを備える。
本発明は、更に、手術ナビゲーションシステム用の複合現実感ユーザ・インターフェースを提供し、該ユーザ・インターフェースは、複合現実外科手術ナビゲーションシステムによって提供される、ユーザの視野内の手術器具の所望の特徴および関心のある解剖学的対象の所望の特徴の立体虚像を備え、該ナビゲーションシステムは、(i)処理ユニット、ディスプレイ、および少なくとも1つの追跡カメラを有するセンサ群を有する頭部装着型表示装置と、(ii)カメラによって追跡可能な少なくとも1つの視覚的マーカーを有し、複合現実感ユーザ・インターフェースは、以下のプロセスによって得られる:(a)頭部装着型表示装置をユーザの頭に装着することと、(b)マーカーを有する手術器具を提供することと、(c)解剖学的対象の部分的に露出された表面の三次元表面のデータを得るために、センサ群を使用して、所望の解剖学的対象をスキャンすることと、(d)解剖学的対象の特徴の仮想三次元モデルの登録のために、三次元表面のデータを処理ユニットに送信することと、(e)処理ユニットに送信するためのデータを取得するために、センサ群を使用して、手術器具の6自由度の姿勢を追跡することと、(f)ユーザの視野内に手術器具の特徴および解剖学的対象の特徴の立体虚像を備える複合現実感ユーザ・インターフェースを表示すること。
本発明のいくつかの実施形態は例として図示されており、添付の図面の図によって限定されず、同様の参照符号は同様の要素を示す。
図1は、本発明の原理による増強システムの概略図である。 図2Aは、図1のシステムの表示装置の概略図の斜視正面図である。 図2Bは、図2Aの表示装置の背面斜視図である。 図3は、図1のシステムの表示装置の別の実施形態の概略図である。 図4は、図1のシステムの電気ハードウェア構成の概略図である。 図5は、図1のシステムのマーカーおよびカメラの概略図である。 図6は、仮想骨盤を示す股関節置換術における寛骨臼殻の位置決め中の図1のシステムにより提供される複合現実感ユーザ・インターフェース画像(「MXUI」)の概略図である。 図7は、仮想骨盤および仮想寛骨臼インパクターを示す股関節置換術における寛骨臼殻の位置決め中の、図1のシステムによって提供されるMXUIを示す概略図である。 図8は、医療処置中の図1のシステムの操作プロセスを示すフローチャートである。 図9は、本発明の原理による股関節置換術を実施するための図1のシステムを使用する方法を示すフローチャートである。 図10は、本発明の原理による一般的な医療処置を実施するための図1のシステムを使用する方法を示すフローチャートである。 図11は、寛骨臼殻と光学マーカーを含む股関節インパクターアセンブリの概略図の斜視図を示す。 図12は、図11に示す股関節インパクターアセンブリの分解図である。 図13Aは、図1のシステムに任意に含まれる解剖学的マーカーセンブリの概略図の斜視図である。 図13Bは、図13Aに示される解剖学的マーカーのクランプアセンブリの斜視図である。 図14は、図13Aに示される解剖学的マーカーセンブリの分解図である。 図15は、図1のシステムに任意に含まれるキャリブレーションアセンブリの概略図の斜視図である。 図16は、図15に示されるキャリブレーションアセンブリの分解正面図である。 図17は、図16に示されるキャリブレーションアセンブリの分解背面図である。 図18は、様々なキャリブレーションステップ中に;図1のシステムによって提供されるMXUIの概略図を示す。 図19は、股関節置換術の骨盤登録ステップ中の、図1のシステムによって提供されるMXUIの概略図である。 図20は、股関節置換術の骨盤へのピンの挿入中の、図1のシステムによって提供されるMXUIの概略図である。 図21は、股関節置換術の骨盤登録ステップ中の、図1のシステムによって提供されるMXUIの概略図である。 図22は、股関節置換術の大腿骨登録ステップ中の、図1のシステムによって提供されるMXUIの概略図である。 図23は、股関節置換術の大腿骨頸部の切除中の、図1のシステムによって提供されるMXUIの概略図である。 図24は、股関節置換術における寛骨臼殻の位置決め中の、図1のシステムによって提供されるMXUIの概略図である。 図25は、股関節置換術における寛骨臼殻の位置決め中の、図1のシステムによって提供されるMXUIの概略図である。 図26は、股関節置換術における大腿骨の再配置中の、図1のシステムによって提供されるMXUIの概略図である。 図27は、股関節置換術中にCアームを使用する、図1のシステムによって提供されるMXUIの概略図である。 図28は、本発明の原理による外科手術におけるCアームと関連して、図1のシステムがどのように使用されるかを示すフローチャートである。 図29は、図1のシステムに任意に含まれる機器識別および追跡ラベルの概略図の正面図である。 図30は、本発明の原理による図1のシステムを使用して、医療機器を登録、共有および追跡するための方法のフローチャートである。 図31は、脊椎固定術における超音波プローブを使用しての、脊椎の登録中の図1のシステムによって提供されるMXUIの概略図である。 図32は、オープン脊椎固定術におけるスタイラスを使用しての、脊椎の登録中の、図1のシステムによって提供されるMXUIの概略図である。 図33は、図32の外科用露出部分の拡大正面図である。 図34は、脊椎固定術における椎弓根の穿孔中の、図1のシステムによって提供されるMXUIの概略図である。 図35は、図34の仮想ドリルおよびターゲット部分の拡大図である。 図36Aは、図1のシステムのARヘッドセットを装着しているユーザの概略図の斜視正面図である。 図36Bは、保護フェイスシールドを有する図1のシステムのARヘッドセットを装着しているユーザの概略図の背面斜視図である。 図37Aは、手術用ヘルメットを有する図1のシステムのARヘッドセットを装着しているユーザの概略図の斜視正面図である。 図37Bは、図37Aに示されるアイテムの背面斜視図である。 図38Aは、図1のシステムの様々なコンポーネントの概略図の斜視正面図である。 図38Bは、図37Aに示される手術用ヘルメットの背面斜視図である。 図39は、図36Aに示されるARヘッドセットの斜視正面図である。 図40は、図37Aに示される手術用ヘルメットの分解図である。 図41Aは、図40に示される電気機械結合板の底面透視図である。 図4IBは、図40に示される電気機械結合板の上面斜視図である。 図42は、膝関節置換術において使用される、図37Aに示されるシステムのコンポーネントの斜視正面図である。 図43は、膝関節置換術における大腿遠位の登録中の、図1のシステムによって提供されるMXUIの概略図である。 図44は、膝関節置換術における切除面計画中の、図1のシステムによって提供されるMXUIの概略図である。 図45は、膝関節置換術における切断ブロックの位置決めのためのピンの配置中の、図1のシステムによって提供されるMXUIの概略図である。 図46は、膝関節置換術における脛骨切除中の、図1のシステムによって提供されるMXUIの概略図である。 図47は、膝関節置換術中に使用される、図1のシステムに任意に含まれる膝バランシングデバイスの概略図の斜視正面図である。 図48は、膝関節置換術におけるバランス評価;中の、図1のシステムによって提供されるMXUIの概略図である。 図49は、図47に示される膝バランシングデバイスの斜視正面図である。
本明細書で使用される用語は、特定の実施形態を説明することのみを目的としており、本発明を限定することを意図するものではない。本明細書で使用されるとき、用語「および/または」は、関連する記載されているアイテムのうちの一つ以上のありとあらゆる組合せを含む。本明細書で使用されるとき、単数形「a」、「an」、および「the」は、文脈が明らかに他を示さない限り、複数形および単数形を含むことを意図している。本明細書で使用されるとき、用語「備える」(comprises)および/または「備える」(comprising)は、述べられた特徴、ステップ、動作、要素、および/または構成要素、および/またはそれらのグループの存在を特定することがさらに理解されるであろう。
他に定義されない限り、本明細書で使用される全ての用語(技術的および科学的用語を含む)は、本発明が属する技術分野の当業者によって一般に理解されるのと同じ意味を有する。一般的に使用される辞書で定義されているような用語は、関連技術および本開示と関連する意味と一致する意味を有すると解釈されるべきであり、本明細書で明示的に定義されていない限り、用語は理想的な意味または過度に形式的な意味で解釈されることはないことを理解されたい。
本発明を説明するにあたり、多数の技術およびステップが開示されていることが理解されよう。これらの各々は個々の利益を有し、そして各々はまた、他の開示された技術のうちの1つ以上、または場合によってはすべてと併せて使用され得る。したがって、明確にするために、この説明は、個々のステップのあらゆる可能な組み合わせを不必要な方法で繰り返すことを控える。それにもかかわらず、明細書および特許請求の範囲は、そのような組み合わせが完全に本発明および特許請求の範囲内にあることを理解して読まれるべきである。
医療処置を補助するためのデータを提供するための新しい感覚増強デバイス、装置、および方法が本明細書に記載されている。以下の説明では、説明の目的で、本発明の完全な理解を提供するために多数の具体的な詳細が述べられている。しかしながら、本発明を特定の詳細なしに実施できることは当業者に明らかであろう。
I.感覚増強システム
図1、2A、2B、および3を参照すると、本発明の感覚増強システム10は、医療処置における使用のために提供されている。システム10は、一つ以上の視覚的マーカー(100、108、110)と、処理ユニット102と、一つ以上の追跡カメラ206を有するセンサ群210と、ユーザ106が見るために、表示装置104上に視覚的表示を生成するディスプレイジェネレータ204を有する表示装置104を含む。表示装置104がユーザの視覚入力を増強できるよう、表示装置104は、ユーザ106に取り付けられる。好ましい一実施形態において、表示装置104は、ユーザ106の頭に取り付けられる。あるいは、依然として視覚シーンを増強しながら、表示装置104は、ユーザ106とは別に配置される。一実施形態において、マーカー(100、108、および110)のそれぞれは、互いに視覚的に区別され、異なるので、マーカーはそれぞれカメラ206によって追跡することができる。
図2Aおよび2B参照すると、表示装置104の他の例示的な実施形態は、ディスプレイジェネレータ204のビデオディスプレイの焦点をユーザ106の目に合わせることを可能にする光学系202を有するバイザーハウジング200を有する。センサ群210は、表示装置104に取り付けられているか、表示装置104の一部となっている。バイザーハウジング200は、ユーザ106の視線に対する表示装置104の位置合わせが一定で再現可能であるように、ユーザ106の頭または顔への取り付けを可能にする取り付け機構208を含む。
図3を参照すると、表示装置104の他の例示的な実施形態は、ディスプレイジェネレータ302からユーザ106の目の視界内にデータおよびイメージを重ね合わせるシールド300への投影を可能にするクリアフェイスシールド300を含む。センサ群306は表示装置104に取り付けられているか、表示装置104の一部である。表示装置104は、更に、取り付け機構304を含む。センサ群306および取り付け機構304は、センサ群210と上記の取り付け機構208と同じ機能を果たす。
システム10の電子ハードウェア構成を図示する図4を参照すると、センサ群(210、306)は、一つ以上の追跡カメラ402、404、406(206と同じ)を含むだけでなく、任意に、慣性測定ユニット(「IMU」)408、他のセンサまたは制御装置と通信するための無線機410、明確な視野のために全ての表示されたアイテムを除去することを含むがこれに限定されず、異なる表示モードでの音声起動のためのマイクロフォン416、可聴警告および他の目的のための一つ以上のスピーカー418、および振動モータ、圧電ブザー、または他の実施形態の形態の触覚フィードバック420を含む。IMU408は、視覚的に基づいていないオブジェクトについての、追加方向およびローカリゼーションデータを提供する。IMU408は、それらに限定されないが、関心のあるオブジェクトの表面マップの位置特定および生成をアシストする非マーカー特定ルーム特徴を決定するために、カメラ追跡およびFMU408データから同時位置特定およびマッピング(「SLAM」)データの生成に使用できる。さらに、センサ群(400、210、および306)は、有線、無線または記憶されたメモリによって中継される外部データ414を含む。外部データ414は、任意に、X線透視画像、コンピュータ断層撮影(「CAT」または「CT」)スキャン、陽電子放出断層撮影(「PET」)スキャンまたは磁気共鳴画像(「MRI」)データなどの形態であり得る。増強画像を作成するために、そのようなデータは、センサ群(400、210、および306)によって収集された他のデータと組み合わせることができる。
システム10の動作中、ディスプレイジェネレータ412(204および302と同じ)および処理ユニット401(102と同じ)は、センサ群(210、306)について、上記のコンポーネントと電子通信する。処理ユニット401は、表示管理およびアルゴリズム実行を制御する中央処理装置(「CPU」)である。図4を参照すると、システム10は、任意に、一つ以上の遠隔センサ群422を含む。遠隔センサ群は、物理的に表示装置104から離れて配置される。遠隔センサ群422のそれぞれは、センサ群(210、306)について、上記のコンポーネントのいくつかまたはすべてを含む。遠隔センサ群422はまた、任意に、別個の遠隔処理ユニットを含んでもよい。遠隔センサ群422は、データを外部データ414に提供し、外部データ414は、必要に応じて、処理ユニット401によってさらに処理されてもよい。別の実施形態において、ユーザ106に関して、視野内のオブジェクトをローカライズするために、システム10は、遠隔群422を使用して、視野に配置されているマーカーだけでなく、ユーザ106が装着している表示部104に取り付けられた任意のマーカーも追跡する。
例示的な一実施形態において、システム10は、センサ群(422、210、306)を使用して、ワークスペース内のオブジェクトを表すデータの三次元点群を作成する。このデータは、後の追跡、視覚化、または再生に使用するために、既にモデル化されているオブジェクトを作成または一致させるために使用できる。
さらに、関心のある領域およびアイテムの強調をアシストするための処置の対象ではない露出周辺の開創器または軟組織を含むが、これに限らない、視野内のオブジェクトを覆い隠すために、システム10は、任意で、技術的に開示された手段を使用して、イメージおよびマスクを重ね合わせることができる。一実施形態において、オーバーレイを使用して、拡張現実(「AR」)モードで、外部画像を投影することができる。別の実施形態において、外部画像は無視されてもよく、仮想現実(「VR」)モードでユーザ106にデータを表示するために、コンピュータ生成グラフィックのみが使用されてもよい。外部の視覚データを遮断するために、表示装置104またはその一部が不透明にされている場合、あるいは、集中すべきはイメージで、外部画像ではないことをユーザ106に強調するために他の何らかの方法が使用される場合、VRモードは、サポートされる。
表示装置104の他の代替実施形態は、ユーザ106の視野へのホログラフィックまたは疑似ホログラフィック・ディスプレイ投影を含むが、それに限定されない。さらに、表示装置は、任意に、ユーザ106の視野に関する最適な表示画像の決定を可能にする視標追跡の技術的に開示された手段を提供してもよい。
システム10は、任意に、視野内のアイテム間を区別するためのアルゴリズムを使用して、現在のタスクに重要ではないオブジェクトに対して、何が関心のあるオブジェクトを構成するかを識別する。比較のために使用される股関節寛骨臼上の骨の目印の識別、および同じ視野で見ることができる軟組織およびツールにも関わらず、術前スキャンとの併合を含むが、これに限定さらない。
図5を参照すると、センサ群(400、422、210、および306)の一つ以上のカメラ500、506および一つ以上の視覚的マーカー502、504を使用して、個別のオブジェクト(例えば、手術器具、解剖学的対象内の所望の場所など)を視覚的に追跡し、ユーザ106に対する姿勢および位置を決定する。一実施形態において、一つ以上のマーカーのそれぞれは、区別され、視覚的に互いに異なる。独立した物体認識および機械視覚技術を、マーカー認識のために使用することができる。あるいは、本発明は、マーカー502、504を含むが、これに限られない一つ以上の関心のあるオブジェクトのために、IMU408を使用した支援追跡を提供する。一つ以上のカメラ500、506はユーザ106から遠隔に配置されてもよく、追跡および位置特定のためにX線画像データを提供することができることに留意されたい。
最適なフィルタリングアルゴリズムを任意に使用して、利用可能なすべてのソースからのデータを組み合わせて、視野内のアイテムのために、最も正確な位置および方向のデータを提供する。このフィルタ方式は、イ通気口を収容することができ、イ通気口は、カメラの視野の閉塞、血液、組織、または関心のある所望の領域のその他の有機的な一時的閉塞、カメラの視野を関心のある領域から遠ざける、頭の動きまたは他のカメラの動き、データドロップアウト、およびバッテリ/電源の消耗またはその他の機器の損失を含むが、これらに限定されない。
図36A、36B、37A、37B、38A、38B、39、41Aおよび41Bを参照すると、表示装置104の他の例示的な実施形態は、ARヘッドセット3600である。ARヘッドセット3600は、様々な滅菌外科手術に使用される(例えば、脊椎固定術、股関節形成術および膝関節形成術など)。サムホイール3606を回転してヘッドストラップ3604を調整することにより、ARヘッドセット3600は、外科医3602(即ち、ユーザ106)の頭に固定されている。透明な保護フェイスシールド3608は、マジックテープ3610への取り付けにより、任意にデバイス3600に取り付けられる。あるいは、取り付けは、接着剤、磁気、留め金または他の技術開示の取り付け手段を介してもよい。手術用ヘルメット3700のARヘッドセット3600への機械的および電気的な取り付けのために、結合機構3612は存在する。手術用ヘルメット3700は、外科医3602のための全身カバーを提供する外科用フード(図示せず)に任意に接続されている。全身カバーは、股関節形成術および膝関節形成術などの特定の外科手術に有用である。手術用ヘルメット3700を外科用フードへ取り付ける場合、ファンが外科用フードを通して、吸気口3702に空気を吸い込み、外科用フードおよびヘルメット下を循環して、外科医3602を冷却し、光学部品の曇りを防止する。顎当て3704は、外科医3602の顔からヘルメット3700を離す(および該当する場合には、取り付けられた外科用フード)。ARヘッドセット3600に対する手術用ヘルメット3700の位置は、外科医3602および全てのカメラおよびセンサが手術部位を遮るものなく見ることを可能にするように設計されている。手術用ヘルメット3700は、外科用フードに取り付けられ、外科用フードとインターフェースをとるのに必要な特徴を含む。可撓性コード3706は、ARヘッドセット3600を、外科医3602のベルトに着用できる股関節モジュール3708に接続する。交換式バッテリ3800が、股関節モジュール3708に挿入されている。
図39を参照すると、ARヘッドセット3600は、視覚増強用の一対のシースルー光学ディスプレイ3902を有する表示部3900と、追跡および2次元デジタルズーム機能および3次元デジタルズーム機能を有する立体撮像機能を実行するための二つの追跡カメラ3904を有する。表示部3900は、深度センサ3906と構造化された光投影機3908を有する。深度センサ3906と投影機3908は、表示部3900の中央に配置されるのが好ましい。その明るさが、音声コマンドによるものを含むARヘッドセット3600のソフトウェアによって制御されることを可能にするために、外科用ヘッドライト3909は、任意に表示部3900に取り付けられ、ARヘッドセット3600に電気的に接続されてもよい。明るい背景に対する仮想コンテンツのより良い視覚化を可能にする複合現実感モードにあるとき、例えば、外科用ヘッドライトを薄暗くするまたは外科用ヘッドライトのスイッチを切るために、この特徴が展開されてもよい。対象の高コントラスト照明または低い周囲照明によって時々損なわれる光学追跡を最適化するするためにライトが調整されてもよい。他の例示的な実施形態において、同じ理由で、手術室の照明は、ARヘッドセット3600のソフトウェアによって無線で制御されてもよい。
図39と40を参照すると、ARヘッドセット3600の後部3910は、任意に、マイクロプロセッサや内蔵電池などの電気回路の発熱部品および他の部品を含んでもよい。ARヘッドセット3600のアーチ形のブリッジ部3912およびヘッドストラップ3604は、後部3910を表示部3900へ機械的に接続する。ブリッジ部3912の一部は、サイズの調節に柔軟に対応する。表示部3900と後部3910の間の電気的接続を提供するために、ブリッジ部3912は、配線またはフレキシブル回路基板を含んでもよい。ブリッジ部3912は、結合機構3612を含み、結合機構3612は、複数の位置決め穴3914および手術用ヘルメット3700のファンに電力を供給するための、2つの電気接点3916へのアクセスを提供する開口部3918を有する強磁性板である。代替実施形態において、結合機構3612は、マジックテープ、ラッチまたはねじ部品などの他の技術開示の手段であってもよい。結合機構3612は、任意に、追跡性能に有害となる手術用ヘルメット3700のファンからARヘッドセット3600へ伝わる機械騒音を最小限に抑える防振マウントを有してもよい。ファン4004をソフトウェア制御して、機械騒音の発生を最小限に抑えるために、ファンの速度を落としたりシャットダウンしたりできる。ファンは、音声コマンドを使用して外科医3602によって制御されてもよい。可撓性コード3706は、後部3910を股関節モジュール3708に接続する。
図40を参照すると、手術用ヘルメット3700は、中空シェル4002をふくみ、その中で、ファン4004は、冷却空気を外科医に提供するために、シェル内の様々な通気口を通して排出される空気を吸い込む。つば付き通気口4006は、外科用フードのバイザー上に空気流を提供し、後部通気口4008は、ARヘッドセット3600の後部3910を含む後部へ冷却空気を提供する。
図41Aおよび41Bを参照すると、連結板3802は、ARヘッドセット3600内の穴3914と位置を合わせるための複数のボス4102を含む。連結板3802はまた、ファン4004に電力を供給するために、ARヘッドセット3600の電気接点3916と接続するバネ付き電気接点4104を有する。連結板3802は、さらに、連結板3802と結合機構3612との間の機械的な保持力を提供する磁石4106を有する。
例示的な実施形態において、ARヘッドセット3600は、デバイスの苦情または設計機能要求を報告するためのシステムとして、任意に使用される。ユーザ・インターフェースは、報告が発生したときに報告を開始するためのメニューオプションまたは音声コマンドを有することができる。これにより、音声およびビデオカメラの記録が作動し、問題が発生している間に、ユーザ106が3Dで苦情をとらえてナレーションをすることを可能にする。音声またはオプションの選択で、ユーザ106は苦情を終結させる。苦情記録は圧縮され、会社にインターネットを介して無線で送信され、より良い診断のために、状況を直接「思い起こ」せるように、優れたデータが苦情処理スタッフに提供される。人工知能を使用して、苦情資料を解析および集計して、パターンを確立して、統計分析を行える。データストリームがリアルタイムで送信されることを除いて、処置の間に、同じシーケンスを使用中のテクニカルサポートに接続されるために使用できる。
II.術前処置
本発明は、手術前の作業および外科手術に適用できる。例えば、可能な術前活動を含む代替の一般的な外科手術が記載される。第1に、CTまたはMRIのような患者の関心領域のスキャンを得る。可能であれば、患者は、手術中の位置決めに近い方法で位置決めされるべきである。第2に、これらに限定されないが、歯および骨構造、関心のある静脈および動脈、神経、腺、腫瘍または塊、インプラントおよび皮膚表面を含む、関心のあるアイテムの三次元モデルにデータを変換するために、スキャンデータのセグメンテーションが実行される。後で表示され、ラベル付けされ、独立して操作できるよう、モデルは分離されている。これらは、術前モデルと称される。第3に、これらに限定されないが、解剖学的基準フレーム、切除面の対象、切り取られる量、切除のための面とレベル、使用するインプラントのサイズと最適配置、対象組織にアクセスするための経路および軌道、ガイドワイヤの軌道と深さ、ドリル、ピン、ネジまたは器具を含むアイテムを識別するために、モデルを使用して術前計画が行われる(任意にモデルの視覚化と操作にVRを使用)。第4に、モデルおよび術前計画データは、手術前または手術時に表示装置104のメモリにアップロードされる。このアップロードプロセスは、無線機を介して無線で最も便利に実行されるであろう。
第5に、患者は手術のために準備され位置づけられている。手術中、手術部位は、理想的にはその後の登録目的のために、皮膚表面の視覚化を最大にする方法で、ドレープされる。これは、Ioban(商標)の十分な使用により達成することができる。広い照明、点または投影パターの特定のLEDまたは可視光エミッターの対象となる場合、異なるように蛍光を発し、反射するIobanのようなフィルムを使用することが有益である。このフィルムはまた、ヘッドピースの光学カメラのよる容易な認識を可能にする光学的特徴、マーカーまたはパターンを有してもよい。
第6に、患者が手術のために準備され、配置されたあと、システム10は(例えば、ARヘッドセット3600を介して)現在の皮膚エンベロープをスキャンして、その現在の輪郭を確立し、ユーザ106が表示装置104で見ることができる術前3Dモデルを作成する。好ましい方法は、既知の画像の計算されたワープ/スキュー/スケールから皮膚エンベロープの決定を可能にする赤外線(「IR」)域で格子または市松模様を投影することである。別の方法は、露出した皮膚に沿って、マーカーが付いたスタイラスタイプのオブジェクトを前後に動かすことであり、スタイラスの位置と方向の追跡と、次の皮膚エンベロープの生成が可能になる。任意に、皮膚モデルは、スキャンされた露出した皮膚の一般的な領域の輪郭を描くユーザ106に表示される。手術前の皮膚モデルの最適な位置および方向は、現在の皮膚表面と一致するように計算される。適切な術前モデルは、表示装置104を介して、ユーザ106に3Dで表示される。任意に、正確な追跡のために、ユーザ106は、光学マーカーを患者の骨に挿入してもよい。マーカーの配置は、術前モデルの人間の視覚化によって知らされてもよい。術前モデルの位置および方向は、これに限定されないが超音波を含む代替のプロービングまたはイメージングによってさらに精緻化することができる。
第7に、手術中に、表示装置104を含むシステム10を使用しているユーザ106は、術前計画情報を見ることができ、器具およびインプラントを追跡することができ、これに限定されないが、解剖学的構造に対するドリルまたはネジの深さ、器具の角度、骨切りの角度などを含む種々の術中測定値を提供する。
図8を参照すると、システム10を使用した処置中の動作フローの例示的な実施形態が提示されている。この実施形態において、CPU401は起動し(800)、一つ以上のカメラ402、404、406が初期化される(802)。カメラ402、404、406の視野内にあるとき、第1のマーカー100が配置され、識別され(804)、後に、次のマーカー108、110が続く(806)。これらのマーカー100、108、110の追跡は、互いに対する位置および方向ならびに主カメラの位置を提供する(808)。IMUなどのセンサからの代替センサデータおよび遠隔センサ群422からのカメラ(810)は、任意に、データ収集に組み込むことができる。更に、患者、対象、ツール、または環境の他の部分に関する外部支援データ(812)が、アルゴリズムで使用するために任意に組み込まれてもよい。本発明で使用されるアルゴリズムは、特定の処置およびデータ収集に合わせて調整されている。アルゴリズム(814)は、表示装置(816)で使用するための所望の支援データを出力する。
III.股関節置換術
本発明の例示的な一実施形態において、図6を参照すると、システム10は、股関節置換手術に使用されており、第1のマーカー600は、固定具602を介して、骨盤604に取り付けられており、第2のマーカー606は、インパクター608に取り付けられている。ユーザ106は、表示装置104を介して、図6に示される複合現実感ユーザ・インターフェース画像(「MXUI」)を見ることができる。MXUIは、股関節置換術中に、ユーザの視野内の骨盤604およびインパクター604の立体虚像を提供する。
前処理と特定のアルゴリズムに組み合わせられた、これらの物理的なオブジェクト上のマーカー(600、606)の組み合わせは、寛骨臼殻612の正確な配置のための骨盤604に対するインパクター608のリアルタイムバージョンおよび傾斜角度を含む、ユーザ106が関心のある尺度の計算を可能にする。さらに、これに限定されないが、全体的な脚の長さの変化を含む、術前から術後の状態への物理パラメータの測定値が提示できる。データの提示は、可読形式610またはこれに限定されないが、ツールの3D表現または他のガイダンス形式を含む、画像の形式であってもよい。
図7は、図6で以前に示されたMXUIの代替図を示しており、所望のバージョンおよび傾斜を達成する際に、容易に使用できるよう、仮想ターゲット700および仮想ツール702がユーザ106に示されている。この実施形態において、完全に見える実際のツール702を有する仮想ターゲット700または完全に見える仮想ターゲットを含む仮想ツール(図示せず)を有することによって、ユーザにとって自然な感じの経験を最適化するために、仮想現実の組み合わが使用される。実画像と仮想画像の他の組み合わせを任意に提供することができる。データの提示は、可読形式704またはこれに限定されないが、ツールの3D表現または他のガイダンス形式を含む画像の形式であってもよい。
図9を参照すると、本発明は、さらに、システム10を使用して、股関節の骨は、広げられたソケットを有しており、交換用カップが、患者の脚と共に使用するために挿入されている、股関節置換術(900)を実行する方法を提供している。この実施形態において第1のマーカー(例えば100、108、または110など)は、マーカーに関して既知の寸法の固定具に取り付けられ、この固定具は、患者の股関節の骨に取り付けられる(902)。第2の別個のマーカー(例えば100、108、または110など)は、第1のマーカー(904)に関して既知の寸法のポインティングデバイスに取り付けられる。股関節の固定具に対する骨の目印または他の解剖学的目印の位置および方向は、光学マーカーと股関節とポインタの間の位置/方向の違いを使用して、登録される(906)。これらの点は、局所座標系を決定するために使用される(908)。大腿骨が脱臼する前に、ポインタを使用して、大腿骨の位置および方向を決定し、交換用シェル用のスペースを確保するために股関節の骨の寛骨臼が広げられる(910)。交換用シェルが取り付けられたインパクターは、既知の寸法のインパクターが取り付けられた第3の別個のマーカーを有する(912)。シェルを有するインパクターは、ヒップマーカーに関して前述のアルゴリズムによって追跡される(914)。ヒップマーカーとインパクターとの間の相対位置および配向を使用して、ARまたはVRディスプレイを介して、シェルの外科的配置を、患者に対する医療上の要求によって、所望の位置および角度でソケットにガイドする(916)。置換された大腿骨のマーカー位置および方向を使用して、処置のこの時点で、脚の長さの変化を計算することができる(918)。別の実施形態は、部品位置決めを決定するために、手術前のCTデータを使用して、この処置を増強する。別の実施形態は、ARまたはVR方式で表示出力を使用して、大腿骨頭の切断を決定する。別の実施形態は、データを使用して、寛骨臼にネジを配置する。
患者が横たわっているテーブルまたはサポートの座標参照系が、いくつかの実装においいて望ましい。地面、特に重力に関するテーブルの位置合わせは、次のように実現できる。EVIUは(ARヘッドセット3600内に配置されているものなどセンサ群のそれぞれから)は、任意のある瞬間の重力に対する表示装置104のピッチおよびロールの方向を提供する。あるいは、SLAMまたは類似の環境追跡アルゴリズムは、重力に対する表示装置104のピッチおよびロールの方向を提供し、ほとんどの壁とそれらに関連する特徴が、重力ベクトルと平行に構築されると仮定される。重力と表示装置104の関係とは別に、テーブルの向きをスタイラスを使用して決定し、テーブル上の3つの独立した点を登録することができる。表示装置104の座標枠内でこれらの3つの点が選択された状態で、重力に関するテーブルのロール角およびピッチ角も決定することができる。あるいは、重力に対する向きを決定するために、機械視覚アルゴリズムを使用して、テーブルは、識別および認識されてもよい。ピッチおよびロールにおける、表示装置104に対する患者の脊椎の位置合わせ、したがってヒップマーカーによって定義されるような他の任意の目標座標系が知られている。ヨー基準を提供するために、スタイラスをヒップマーカーと組み合わせて使用し、患者の頭がどこに配置されているかを画定し、患者の頭に対する脊椎の方向を提供してもよい。あるいは、自動決定のために、患者の頭部の画像認識を使用することができる。最終的には、テーブルのロール、ピッチ、ヨーおよび/または患者の脊椎は、表示装置104および全ての関連する座標系内においてに完全に画定されいる。
図11および図12を参照すると、システム10は、任意に、股関節形成術処置で使用するための股関節インパクターアセンブリ1100を含んでもよい。アセンブリは、寛骨臼殻1102と、寛骨臼インパクター1106に組み立てられた光学マーカー1104(上記の100、108、110、502、504、600、606、804、806、904、912と同じ)を有する。図12は、アセンブリ1100の分解図であり、インデックス付きポスト1200をインデックス付き孔1202に挿入することにより、再現可能な方法で、どのように光学マーカー1104がインパクター1106に取り付けられるかを示している。インパクターのねじ付き遠位端1204にねじ込みそして、肩部1206に着座することによって、寛骨臼殻1102は、再現可能にインパクター1106と組み立てる。マーカー1104は、第1の基準点1108、第2の基準点1110および第3の基準点1112を有し、それぞれは黒と白の隣接領域を有し、それらの境界は、交差する直線を形成する。ARヘッドセット3600内のアルゴリズムを使用して、立体カメラからの画像を処理し(3904)、それぞれの基準点(1108、1110、1112)の交点を計算し、それによって、マーカー1104の6自由度姿勢を決定する。本明細書の目的のために、「姿勢」は、オブジェクトの位置および方向の組み合わせと定義される。自己粘着ステッカーに印刷することによって、黒色の領域を白色のプラスチック材料の表面上にレーザーエッチングすることによって、または別の方法によって、基準点(1108、1110、および1112)を作成することができる。シェルは固定孔1114を含み、固定孔1114を通して、ネジを任意に使用して、シェル1102を寛骨臼の骨に固定する。
他の例示的な実施形態において、図13A、図13B、および図14を参照すると、システム10は、任意に、クランプアセンブリ1302と光学マーカー1304とからなる解剖学的マーカーセンブリ1300を含む。クランプアセンブリ1302は、基部1400、第1の涙滴形の穴1402、および第2の涙滴形の穴1404を含む。骨に固定された固定ピン(図示せず)を、涙滴形の穴(1402、1404)を通して挿入し、締め付け金具1406と本体1400との間に固定することができ、それによって、クランプアセンブリ1302を、ピンに、したがって、骨に固定する。クランプねじ1408は、ジョーのねじ山と係合し、アセンブリ1302をピンに締め付けるために使用される。六角形の穴1410は、六角形ドライバを使用して、アセンブリ1302を締め付けることを可能にする。第1の保持ピン1412および第2の保持ピン1414は、クランプアセンブリ1302の分解を防止する。マーカー本体1416は、第2の位置決めポスト1420としての第1の位置決めポスト1418と、2つの位置決めポストを、基部の位置決め穴1424と位置決めスロット1426と係合させることによって、基部1400に位置を提供する第3の位置決めポスト1422を有する。設計は、最適な追跡のために、表示装置104(例えば、ARヘッドセット3600)内のカメラ(例えば、3904)に対してマーカー1304を向けることを可能にするマーカー1304の2つの可能な回転位置を提供する。マーカー本体1416は、基部1400に、充分な保持力を提供する磁石(図示せず)を封入する。
図15から図17を参照すると、システム10は、任意に、プレート1502と、プレートとマーカー(1502、1504)を結合するための舌と溝のアセンブリ機能を有するマーカー1504を含む、キャリブレーションアセンブリ1500を含んでもよい。舌と溝のアセンブリ機能は、金属部品を、金属部品とは異なる熱膨張率を有するプラスチック部品に正確に組み立てるのに特に有用である。プレート1502は、様々なインパクタータイプを受け入れるために、複数のねじタイプを有する複数の穴1506を有する。マーカー1504は、窪み1508を有し、窪み内で、スタイラスの先端が、登録のために挿入されてもよい。マーカー1504は、複数の基準点1510を有する。
図18は、表示装置104(例えば、ARヘッドセット3600)を介してユーザ106に示されるMXUIの例示的な実施形態を示し、MXUIは、様々なキャリブレーションステップに使用されているキャリブレーションアセンブリ1500を示す。第1に、股関節インパクターアセンブリ1100を、プレート1502の適切な穴にねじ込み、肩部1206をプレート1502の表面に当たることなくまっすぐに着座させる。ARヘッドセット3600のカメラ3904は、寛骨臼殻が着座するインパクターの肩部と、股関節インパクターアセンブリ1100のマーカー1104との間の関係を決定するために、アルゴリズムによって処理された画像を取り込むことができる。追跡のための複数の基準点1802を含むスタイラス1800が示されている。スタイラス1800の先端1804は、プレート1502の窪み1508に挿入されてもよく、スタイラス1800のマーカーに対する先端1804の座標を決定することが可能になる。マーカー1504に対して、特定の位置で、ユーザ106の視野内に投影される仮想ガイドポイント1806が示されている。ユーザ106は、実際のスタイラス1800の先端1804を、ユーザ106の奥行き知覚に従って、仮想ガイドポイント1806が位置するところに配置し、それにより、患者の実際のビューを、仮想ガイドポイントによって表わされる仮想ビューと接続する。アルゴリズムは、ユーザ106の眼内距離などの変数を考慮するために、補正係数を適用する。仮にユーザの奥行き知覚が、ツールまたはインプラントの正確な位置のために、複合現実状態で頼られるのであれば、上記は有益である。
図19は、股関節置換術の開始時に患者1900の表示装置104を介してユーザ106に示されるMXUIの例示的な実施形態を示す。追跡のための複数の基準点1904を有する大腿骨マーカー1902、ローバンなどの粘着テープで、患者1900の太ももの皮膚に取り付けられている。あるいは、図13Bに示すようなピンおよびクランプアセンブリを使用して、大腿骨マーカー1902を、大腿骨の骨に直接固定することができる。ユーザ106は、スタイラス1800の先端1804を使用して、骨盤の前方の目印を登録し、大腿骨マーカー1902の基準フレーム内の骨盤の位置を決定し、一時的な骨盤の基準フレームを確立する。別の実施形態において、この登録は、患者の目に見える表面のSLAM走査によって定義される本体基準フレーム内にあり得る。別の実施形態において、SLAMを使用して表面マップを生成し、頭の動きによって、各目印上に仮想点1910を順番に位置決めすることにより、ユーザ106にそれぞれの点を識別させることによって、骨盤の前方の目印を登録することができる。別の実施形態において、単一の基準点1906を、登録されるべき場所に配置することができる。仮想円1908を使用して、ユーザ106の視線によって位置が制御されるマスクを定義できる。機械視覚アルゴリズムは、仮想円1908内の単一の基準点1906のみを探す。登録ステップは、「登録ポイント」などのユーザ106の音声コマンドによって始まる。ユーザ106は、膝蓋骨の中央または上顆の内側と外側などの大腿遠位を表す点を登録してもよい。各点が登録されると、小球などの仮想マーカーを配置して、登録時およびそれ以降に、先端の位置に留まり、ユーザ106に視覚的確認を提供し、登録の質を確認してもよい。
図20は、股関節置換術中に仮想骨盤2000および仮想大腿骨2002の表示装置104を介してユーザ106に示されるMXUIの例示的な実施形態を示す。仮に、患者固有のモデルが表示装置104にアップロードされている場合、これらのモデルの仮想モデルは、神経血管構造などの関心のある他の仮想機能と共に表示される。アップロードされていない場合、仮想骨盤と仮想大腿骨は、性別特有のモデルであり得、それらは登録された目印の間隔の最も一致するように拡大縮小される。2つの固定ピンのそれぞれについての第1の仮想軌道2004および第2の仮想軌道2006が表示されている。他の実施形態において、これらは管状または円錐形であり得る。複数の表面上のマーカーを画定する複数の基準点2010を含むドリル2008が示されおり、様々な視点からの姿勢の追跡を可能にする。ドリルが追跡されない場合、仮想軌道2004と実際のピン2012を並べるか、または、ドリルが追跡される場合、仮想軌道と仮想ピン(図示せず)を並べることにより、各ピンの挿入をガイドすることができる。ドリルが追跡されている場合、骨盤の基準フレームに対するドリルの角度は、X線画像増強のために数値で表示される。仮想テキスト2014は、実際のドリルの表面2016に配置され、仮想テキストによって表される角度が関連付けられているオブジェクトをユーザにとって直感的にするドリルで移動する。
図21は、解剖学的マーカー1300を、腸骨稜に挿入されたピン2106に締め付けることによって、患者の骨盤に取り付けた状態で、股関節置換術中に、表示装置104を介してユーザ106に示されるMXUIの例示的な実施形態を示す。この時点で、骨盤の追跡に関連する基準フレームは、前の基準フレームから、解剖学的マーカー1300の基準フレームに転送される。必要に応じて、骨盤を再登録して、精度を上げることができる。大腿骨の股関節と首を露出させるための筋肉と関節包の切開剥離の位置のためのガイドとして、仮想骨盤2102、仮想大腿骨2104および仮想神経血管構造(図示せず)を使用して、ユーザ106は、切開を行い、大腿骨を露出させる。この時点で、ユーザ106は、骨盤に対してほぼ中立の外転、屈曲および回転を有する基準位置に脚を置く。
図22は、大腿骨股関節置換術の登録中に、表示装置104を介してユーザ106に示されるMXUIの例示的な実施形態を示す。スタイラス1800の先端は、近位大腿骨上の基準点2200上に配置される。この時点で、マーカー1902と1300との間の関係によって定義される骨盤に対する大腿骨のベースライン方向が決定され、記録される。さらに、骨盤の基準フレーム内の基準点2200の座標が記録される。外科用ペンで印を付けること、骨に小さな穴を開けること、または小さなタックを挿入することによって、基準点2200を強化することができる。図22に示されるように、登録の精度を上げるために、スタイラスの先端を中心とする拡大された立体画像2202が表示される。処置の後半で基準点を見つける際にユーザ106を助けるために、ベースライン画像またはスタイラスの点の周囲の領域の画像は、登録時に記録されてもよい。これらは、立体画像であってもよい。スタイラス1800の先端1804を使用して、ユーザ106は、大腿骨頸部切断の所望の位置に点を登録する。これは通常、大腿骨頸部の最も優れた/外側の点である。適切な外転角およびバージョン角でこの点を通過する最適切除面が計算される。
図23は、仮想切除ガイド2300を用いた股関節置換術の大腿骨頸部の切除中に、表示装置104を介してユーザ106に示されるMXUIの例示的な実施形態を示す。マーカーを画定する複数の基準点2304を有するサジタル鋸2302が示されており、サジタル鋸2302の姿勢の追跡が可能になる。ドリルが追跡されない場合、実際の鋸刃2306を仮想切除ガイド2300と並べること、或いは、のこぎり2302が追跡される場合、仮想の鋸刃(図示せず)を仮想切除ガイド2300と並べることにより、大腿骨頸部の切除をガイドすることができる。図20に示される追跡ドリルと同様に、のこぎり2302が追跡される場合、のこぎり2302の角度が数値で表示されてもよい。これらの角度は、骨盤の基準フレームまたは大腿骨の基準フレームに対して表示され得る。
図24は、股関節置換術の寛骨臼殻の位置決め中に、表示装置104を介してユーザ106に示されるMXUIの例示的な実施形態を示し、寛骨臼インパクターアセンブリ1100用の仮想ターゲット2400および仮想シェル2402が示されている。寛骨臼インパクターアセンブリ1100の配置は、仮想ターゲット2400と整列するするようにそれを操作することによってガイドされる。仮想ターゲットのシェル部分の後部/外側の四分円は、異なる色で表示されてもよく、さもなければ、シェル2402の他の部分とは視覚的に区別されて、寛骨臼へのネジの安全な配置のための対象をユーザ106に画定してもよい。寛骨臼インパクターの数値角度と、広げられた、または広げられていない寛骨臼に対する挿入の深さは、仮想テキスト2404として、数値で表示される。インパクターの先端を中心とする立体画像2202に類似の拡大された立体画像(図示せず)が表示されており、仮想シェルが、仮想骨盤2102の寛骨臼とどのようにとインターフェースをとるかを示している。
図25は、股関節置換術の寛骨臼殻の位置決め中に、表示装置104を介してユーザ106に示されるMXUIの例示的な実施形態を示しており、寛骨臼インパクターの仮想軸2500および仮想ターゲット2400が示されている。寛骨臼インパクターの配置は、それを操作して、仮想軸2500を仮想ターゲット2400と整列させることによってガイドされる。
図26は、股関節置換術の大腿骨の再配置および登録中に、表示装置104を介してユーザ106に示されるMXUIの例示的な実施形態を示す。ベースライン大腿骨登録中の骨盤に対する大腿骨の術前の向きを表す仮想大腿骨ターゲット2600が示されている。この上頂部を近位大腿骨上の基準点の近くに置く。大腿骨の現在の向きを表す仮想大腿骨フレーム2602が示されている。大腿骨が動かされると、仮想大腿骨フレーム2602は、仮想大腿骨ターゲット2600の上頂部を中心に回転する。大腿骨を操作して、外転、屈曲および回転方向に、仮想大腿骨フレーム2602を、仮想大腿骨ターゲット2600に整列させることによって、ベースライン方向への大腿骨の再配置は達成される。大腿骨がベースライン方向に再配置された状態で、ユーザは、スタイラス1800の先端1804を使用して、近位大腿骨上の基準点を再登録して、ベースライン測定から、脚の長さと横方向のオフセットの変化を決定する。ベースライン大腿骨登録中に、より早く記録されたベースライン画像2604は、同じ基準点を正確に再登録するのを助けるために表示されてもよい。
IV.Cアームシステムと関連したシステムの使用
図27は、Cアームを用いた患者の撮像中に、表示装置104を介してユーザ106に示されるMXUIの例示的な実施形態を示す。X線源2702、撮像部2704、および表示部2706を有するCアーム撮像システム2700が示されている。追跡可能ラベル2708が、Cアーム2700に取り付けられている。仮想股関節アライメントガイド2710および仮想骨盤アライメントガイド2712が示されている。これらは、前部骨盤平面に垂直で、それぞれ股関節および恥骨結合の中心にある。適切な仮想位置合わせガイドと整列するよう撮像部2704の表面を調整することによって、Cアーム2700の配置は、ガイドされる。Cアーム2700が追跡可能である場合、仮想Cアームアラインメントガイド2714が表示されてもよい。この場合、適切な仮想位置合わせガイド2710または2712と整列するように仮想Cアームアラインメントガイド2714を調整することにより、Cアーム2700の配置はガイドされる。対象に対する位置および角度のずれも、仮想テキスト2718として、数値で表示できる。
図28は、外科手術において、どのようにシステム10およびその表示装置104(例えば、ARヘッドセット3600)をCアーム2700と共に使用できるかを示すフローチャートである。ARヘッドセット3600に組み込まれるカメラ3904(例えば、高精細カメラなど)を使用して、Cアームモニタに表示される画像を取り込むことができる(2800)。画像は、「四角くする」ように調整でき、それは、カメラ3904がモニタ上の画像に対して完全に中心合わせされ、かつそれに対して垂直である場合に見られるものと一致する(2802)。撮像されている解剖学的構造に対する撮像装置および線源の位置に関する知識を使用して、線源からのX線ビームの発散による倍率および視差歪みについて画像を補正する(2804)。補正された画像をARヘッドセット3600に表示することができる(2806)。次に、これを使用して、ユーザ106が、寛骨臼カップの配置または脚の長さなどの処置に関連する測定を行うことを可能にする(2808)。他の画像を、同時に、表示、オーバーレイ、ミラーリングまたはその他操作され、ユーザ106が比較を行うことを可能にする(2810)。
別の実施形態において、例えばDICOMフォーマットのファイルの転送による、Cアーム2700とARヘッドセット3600との間の無線通信によって、画像キャプチャを達成することができる。あるいは、マシンビジョンを組み込んだアルゴリズムを使用して、自動的に、寛骨臼殻の傾斜およびバージョンなどの測定を行う。エッジ検出を使用して、シェルの輪郭をトレースできる。輪郭に最適に一致する楕円のパラメータを決定し、最適な楕円の短軸と長軸の長さの比からシェルの前傾を計算するために使用できる。例えば、恥骨枝の最も劣った側面に接線を引き、シェル楕円の長軸とこの線との間の角度を計算することにより、傾斜を計算することができる。同様に、大腿骨の相対的な脚の長さと横方向のオフセットを決定し、大腿骨頭またはシェルの球状部の中心からの回転中心を認識し、拉致角度に一致するようにこの点を中心に仮想回転を実行することによる、大腿骨の外転の変化または違について、補正することができる。この種の計算は、はほぼ瞬時に実行され、追加のX線画像を撮る時間または必要性を節約することができる。さらに、別の実施形態において、閉鎖孔を表す放射線透過部の幅およびアスペクト比を一致させるために仮想回転を行うことにより、骨盤の位置ずれが、シェルの見かけの傾斜と前傾に及ぼす影響をアルゴリズムで修正できる。
さらに別の実施形態において、Cアームイメージングを使用して、骨盤などの解剖学的構造の位置を登録することができる。このため、解剖学的マーカー1300は、既知の幾何学的形状の放射線不透過性の特徴を、既知のパターンで組み込むであろう。Cアーム画像は、既知のマーカーの特徴に基づいて、取り込まれ、スケーリングされて、ARヘッドセット3600に表示される。以前のCTスキャンから生成された解剖学的構造の仮想モデルが、ユーザ106に表示される。ユーザ106は、仮想モデルを操作して、モデルの輪郭がCアーム画像と一致するようにモデルを配置することができる。この操作は、SLAMを使用して、ユーザ106の手の位置および動きを追跡することによって実行されることが好ましい。あるいは、ユーザ106は、物理的なオブジェクトを操作することができ、オブジェクトは、物理的なオブジェクトと共に移動する仮想モデルに、マーカーを組み込むことができる。仮想モデルが、Cアーム画像と正しく位置合わせされていると、患者の解剖学的構造と解剖学的マーカー1300との間の関係を計算することができる。これらのステップおよび操作は、エッジ検出を使用して、CTから生成されたモデルのプロファイルの投影にそれを一致させることにより、ソフトウェアを使用して、計算的に実行することができる。
V.脊椎手術
図31は、超音波による脊椎の登録中に表示装置104を介してユーザ106に示されるMXUIの例示的な実施形態を示す。解剖学的マーカー1300は、手術部位に隣接する椎骨に固定される。マーカーを画定する複数の基準点3106を含む超音波プローブ3104が提供される。一実施形態において、超音波プローブ3104is電池式でコードレスであり、無線機を介してARヘッドセット3600と通信できる。ソフトウェアは、マーカー1300の位置に対して、2D超音波画像を位置付け、スケールすることができるために必要な幾何学的および他の情報を有する。超音波プローブ3104を患者3100の表面上で移動させて、関心領域をスキャンする。ソフトウェアは、2D画像データを、解剖学的マーカー1300に対する超音波プローブ3104の6自由度姿勢情報と組み合わせ、関心のある椎骨の表面を表す仮想モデル3108を生成する。超音波プローブ3104を、関心のある解剖学的構造に対して回転し、より完全な3D画像を得ることができる。棘状突起および左右の乳頭状突起の後方輪郭は、椎骨のCT生成3Dモデルの同じ特徴と一致させることができ、複合現実感ビューで椎骨の仮想モデルを登録してその後、配置することができる。あるいは、超音波スキャンで見える任意の適切な特徴を利用することができ、仮想モデルの位置は、SLAMによって決定されるように、患者の表面に対して相対的であり得る。後者は、関心のある患者の解剖学的構造が処置の期間中静止している処置に適しており、マーカーの取り付けは、不必要に侵襲的または煩わしい。超音波も同様にこのように使用して、これらに限定されないが、骨構造、神経および血管などの関心のある解剖学的構造のモデルを生成することができる。任意の解剖学的構造の登録を達成することができる。例えば、超音波を用いて、骨盤の基準フレームを確立し、左右のASISと恥骨の近位頂点を配置することができる。同じ方法を使用して、ツールまたはインプラントの位置を経皮的に追跡する。
図32は、スタイラス1800による脊椎の登録中に、表示装置104を介してユーザ106に示されるMXUIの例示的な実施形態を示す。解剖学的マーカー1300は、手術部位に隣接する椎骨に固定されている。術前撮像から生成された患者の椎骨の仮想モデル3200が表示される。仮想モデルは、第1の目印3202、第2の目印3204および第3の目印3206を含む。図33は、図32に示される露出された解剖学的構造の拡大図を示す。患者の軟組織は、十分に解剖され、3つの目印を含む第1の骨突起3300、第2の骨突起3302および第3の骨突起3304が露出される。仮想モデル上に示されている目印の位置に最も一致する実際の椎骨上の点にスタイラス先端1804を配置することによって、ユーザ106は、3つの目印を登録する。これらの点を最もよく合わせるために、ソフトウェアは、仮想モデル3200をユーザの視野内に再配置する。仮想モデルと、椎骨の実際の露出領域との比較によって、ユーザ106は登録の質を視覚的に確認する。必要であれば、ユーザ106は、スタイラス1800の先端1804を使用して、調整を行い、仮想モデルを再配置する。代替実施形態において、目印は、各プロセスの最も後の側面をトレースする円弧である。別の実施形態において、露出されたプロセスの輪郭はSLAMで確立され、これらの輪郭に一致するように、ソフトウェアは、仮想モデルの位置上に最良適合を行う。
図34は、脊椎固定術中に表示装置104を介してユーザ106に示されるMXUIの例示的な実施形態を示す。ドリルビットおよび仮想ドリルビット3402のための仮想ターゲット3400が示されている。仮想ターゲット3400および仮想ドリルビット3402に対して透明になるようレンダリングされる仮想椎骨3404が示されている。ドリルビットの数値角度および貫通深さ、またはドリルビットの先端から最大安全挿入深さまでの距離が、仮想テキスト3406として数値で表示される。図35は、図34に示される仮想ターゲット3400および仮想ドリルビット3402の拡大図を示す。近位十字線3502および遠位十字線3504を有するロッド3500の形態で、仮想ターゲット3400が示されている。安全な目標軌道で実際のドリルビットを維持するために、ユーザは、仮想ドリルビット3402が、仮想ターゲット3400の両方の十字線のリングを通過する位置を維持しなければならない。仮想ドリルビット3402が、両方の十字線の中心を通過するとき、理想的な軌道は達成される。実際のドリルビットが、安全な目標軌道の外側に移動した場合、仮想ターゲット3400の色が変化して、ユーザに警告し、可聴警告が発せられる。遠位十字線3504は、骨の表面上の計画された開始点に配置される。仮想ターゲット3400および仮想ドリルビット3402の軸方向長さが拡大縮小され、ドリルが最大計画深度に達したとき、近位端が一致する。仮想ターゲット3400から遠い場合、仮想ドリルビット3402の変位の動きに対するスケーリングは1:1であるが、近いほど精度が上がるため、より高い精度のために、より高い倍率に拡大される。
ドリルビットを使った穴あけに関連して説明されているが、この複合現実感ビューは、複数のステップに使用することができ、ステップは、椎弓根スクリューの運河を見つけるために、椎弓根をタップすること、または、椎弓根スクリューを打ち込むこと、あるいは、追跡可能な突き錐を使用することを含む。ドリル先端の軸方向位置を再調整するための迅速な手段として、タップまたはネジを交換し、ユーザは、先端をマーカーの窪みに配置する。インプラントは、ARガイダンスにより、低侵襲的に導入可能であり、例えば、椎体間ケージは、PLIF、XLIFまたはTLIF処置中に位置することができる。
別の実施形態において、外科用ドリルは、双方向通信を提供するためにヘッドセットと無線で通信するように装備され得る。これにより、さまざまな安全性と使いやすさが促進され、下記を含む機能を強化する。ドリルが安全な目標軌道内にないか、或いは、最大安全深度に達した場合、ドリルを自動的に停止し、または操作を回避すること。便利なユーザ・インターフェースを提供して、トルク制限用途のために適切なトルク設定パラメータを指定すること。例えば、所与のサイズの椎弓根スクリューまたは椎弓根スクリューのセットスクリューの着座トルクのための最大挿入トルクである。使用される実際の値は、文書化または研究目的のために患者記録と一緒に記録することができ、例えば、穿孔中のトルク曲線、椎弓根スクリューまたはセットスクリューの最終着座トルク、椎弓根スクリューまたは使用される特定のインプラントの移植位置である。
別の実施形態において、ARヘッドセット3600は、神経監視/神経位置特定システムに無線で接続され、特に、XLIFのような最小侵襲的処置の間に、ユーザ106(例えば脊椎外科医)にユーザの視野内でリアルタイムの警告および測定を提供することができる。患者の実際の神経が撮像されて3Dモデルに再構築されている術前撮像と組み合わせて使用されるとき、そして、システムが、特定の神経が刺激されたこと、または刺激プローブによって接近されていることを検出した場合、その神経構造を表すホログラムは、神経構造との接触または損傷を回避することをより容易にするために、ユーザ106に強調される。
VI.膝関節置換術
本発明の他の例示的な実施形態において、図42を参照すると、システム10は、膝関節置換手術に使用される。図42は、膝関節置換患者の骨盤4202、大腿骨4204、および脛骨4206を示しており、ARヘッドセット3600を装着している外科医4208(即ち、ユーザ106)が示されている。大腿骨マーカー4210および脛骨マーカー4212は、それぞれ、大腿骨および脛骨にピンで固定される。大腿骨は、可動域を通って移動し、大腿骨マーカー4210の基準フレーム内の股関節の中心に対する代理として、回転中心を決定する。膝は可動域を通して曲げられ、ベースライン、術前の膝の屈曲軸を決定する。外科医4208は膝関節を露出させるために切開をする。滑車溝の最遠位点のような目印に基づいて、大腿遠位の中心を登録するためにスタイラス1800が使用される。ACLのフットプリントをスタイラスの先端に合わせることによって、脛骨の近位中心が定義される。特定の最小侵襲的処置ではスタイラスを1つのポートを通して関節包に挿入し、第2のポートを通して挿入された関節鏡4214でそれを視覚化することによって、骨の目印を、関節鏡的に登録することができる。さらに、関節鏡からの関節鏡画像4216は、ARヘッドセット3600に無線で通信され、MRUの一部として表示されてもよい。代替実施形態において、スタイラス先端を追跡可能な関節鏡に組み込み、目印登録を単一のポートを通して実行できる。スタイラス1800を使用して、内側と外側のくるぶしを登録し、これらの点の補間によって、脛骨マーカー4212の基準フレーム内の足首の中心を決定する。この時点で、第1の軸が股関節の中心に向かって延びていて、第2の軸が膝の屈曲軸により定義され、第3の軸が第1および第2の軸の法線として定義される状態で、大腿骨の基準フレームは、その起点が大腿遠位の中心にあるように確立される。第1の軸が足首の中心に向かって延び、第2の軸が膝の屈曲軸で定義され、第3の軸が、第1および第2の軸の法線として定義される状態で、脛骨基準フレームは、その起点が近位脛骨の中心にあると定義される。これらの基準フレームは、MRU内に虚像として提示されてもよい。
図43は、膝を露出させた膝関節置換手術中に、ARヘッドセット3600を介して外科医4208に示されているMXUIの例示的実施形態を示す。ARヘッドセット3600内の深度センサ3906で走査することによって、または立体カメラ3904およびSLAMを使用することによって、大腿顆4302および脛骨プラトー4304の地形図を生成することができる。膝は可動域を通して曲げられて、外科医4208は、顆のできるだけ多くの視覚化を可能にするように視点を調整するであろう。視野の中心にある円4306は、登録処理中に顆を「ペイント」するために外科医4208によって使用され、マッピングアルゴリズムのためのマスクとして使用される。円は、マッピングの速度および精度を高めるために使用される構造化された光投影機の投影視野と一致してもよい。表面がマッピングされると、マッピングされた領域の仮想3Dメッシュ4308は、関節面に投影されて、外科医4208をガイドし、表面登録の質の視覚的確認を提供する。アルゴリズムを使用して、大腿遠位と近位脛骨の関節面の最低点を決定し、大腿遠位および近位脛骨切除の深さを決定する。理想的なインプラントサイズは地形図から決定することができる。
図44を参照すると、仮想脛骨インプラント4402および仮想大腿骨インプラント4404は、ARヘッドセット3600を介して外科医4208に示されるMXUI内に表示することができる。外科医4208は、満足するまで、サイズを切り替えてこれらの仮想モデルの位置を調整することができる。別の実施形態において、仮想脛骨インプラントは、ブローチ作業のための脛骨の準備中に表示されて、脛骨コンポーネントの回転位置合わせのためのガイドを提供する。
図45を参照すると、脛骨切断ブロックのためのピンの位置のための仮想ガイド4502は、ARヘッドセット3600を介して外科医4208に示されるMXUI内に表示される。遠位大腿骨切断ブロック用のピンの位置に関する仮想ガイド4504が表示されている。切断ブロック用のピンの位置に関する仮想ガイド4506が表示されている。実際のピンの配置は、それらのピンを、仮想ガイド4502、4504または4506と位置合わせすることによってガイドされる。これらのピンに切断ブロックを配置することによって、大腿骨4508および脛骨4510を切除することができる。
図46は、図45に示されるMXUIの代替実施形態を示し、理想的な切除面を表示するために、仮想ガイド4602が使用され、実際の鋸刃と仮想ガイド4602との位置合わせによって、外科医4208は、骨を直接切除することができる。あるいは、追跡鋸4604の場合、仮想の鋸刃4606を仮想ガイド4602と位置合わせすることによって、外科医4208は、骨を切除することができる。各切除の内反/外反角度、屈曲角度、及び深さを示す仮想テキスト4608は、関連する場合、数値で表示されてもよい。
図47および図49は、ベース要素4702、バネ4902、顆状要素4904、および顆状プレート4906を有するシステム10に任意に含まれ得る膝バランシングデバイス4700を示す。ベース要素4702は、ハンドル4908、ターゲット4714および脛骨プレート4910を含む。顆状要素4904は、ハンドル4912と円筒形のベアリング孔4914を含む。顆状プレート4906は、円筒形のベアリングシャフト4916、ターゲット4716および2つのパドル4706および4707を含む。顆状プレート4906は、円筒形ベアリング4916を中心に旋回し、それにより、ベースプレート4910に対する顆状プレート4906の内側/外側傾斜が可能になる。代替実施形態において、ベアリング4916は、ボールタイプであってもよく、顆状プレート4906の内側/外側および屈曲/伸張の傾斜を可能にする。別の実施形態において、顆状プレート4906は、脛骨インプラントの軸受表面のトポグラフィと一致するように輪郭付けられてもよい。別の実施形態において、設計は、各々が堅く一体化された伸延パドルおよびマーカーを有する2つの完全に独立した顆状要素を含み得る。
図47を参照すると、脛骨プレート4910は、切除された脛骨4704上に着座し、伸延パドル4706および4707は、それぞれ、内側大腿骨顆4708および外側大腿骨顆4712との接触を維持する。伸延パドル4706および4707は、バネ4902によって押されて、前後軸を中心に旋回し、各大腿顆と脛骨との間に、ほぼ等しく一定の伸延力を提供する。各要素は、ソフトウェアが各大腿骨顆の伸延の程度を測定することを可能にする光学マーカー4714を含む。
膝が可動域を通って曲げられると、脛骨および大腿骨の姿勢と同様に、各対象の位置が追跡される。このデータを使用して、屈曲角度の関数として、内側および外側弛緩のプロットを生成する。この情報を使用して、遠位大腿骨切断ブロック位置決めピンの理想的な位置を計算し、膝の可動域を通してバランスをとることを達成し、或いは、骨棘の除去や軟部組織の剥離を行い、その可動域を通して膝のバランスを取る際にユーザをガイドする。図48に示されるように、このプロットは、MXUIに表示することができ、膝の可動域にわたって、第1の三次元弧4802は、内側弛緩を表し、第2の三次元弧4804は、外側弛緩を表す。実際の膝の現在の屈曲角度における数値は、仮想テキスト4806として表示できる。
VII.その他の医療処置
図10を参照すると、本発明は、さらに、システム10を使用して他の外科手術を実行する方法(具体例を以下に提供する)を提供する。方法は、これに限定されないが、視覚的マーカーおよびFMUの追跡および認識を含むデータ収集を含む(1000)。このデータを使用して、作業ビュー内の複数のアイテムの相対的および/または絶対的な向きおよび位置を決定する(1002)。外部データ(1004)がアルゴリズムに取り込まれる。アルゴリズムを使用して、特定の使用事例のためのデータを処理し(1006)、必要な出力(1008)を決定する。このデータは、拡張現実感ARまたは仮想現実感VR出力ディスプレイ(1010)で使用され、医療専門家をアシストする。
例えば、この方法は、完全股関節形成術に使用することができる。解剖学的目印およびツールのためのマーカー(例えば、100、108、110など)は、データ収集(1000)および股関節および外科手術器具の位置および向きの決定(1002)のために使用される。アルゴリズム(1006)を使用して、これに限定されないが、部品位置決め、大腿骨頭の切断、寛骨臼の位置決め、ねじ留め、脚の長さの決定、および修正設定のための寛骨臼内の良好な骨の位置決めを含む解決策を決定する。
この方法を、人工膝関節全置換術のためにも使用することができる。解剖学的目印およびツールのためのマーカー(例えば、100、108、110など)は、データ収集(1000)および膝、脛骨および外科手術道具の位置および向きの決定(1002)のために使用される。アルゴリズム(1006)を使用して、これに限定されないが、脛骨切断の位置、角度および傾斜、ガイドの配置および微調整、骨髄内ガイドの回避および大腿骨切断の改善を含む解決策を決定する。
この方法を、遠位橈骨骨折の変形治癒のための矯正骨切り術のために使用することができる。解剖学的目印およびツールのためのマーカー(例えば、100、108、110など)は、データ収集(1000)のために使用され、、それは、変形治癒および外科用器具の位置および向き(1002)の決定のために、手術前のCTスキャンデータと組み合わせられる。アルゴリズム(1006)を使用して、これに限定されないが、骨切り術の位置、および切断角度および結果の評価を含む解決策を決定する。
この方法は、複雑で角度および回転補正を伴う、骨折を伴う上腕骨、遠位上腕骨、橈骨および尺骨を含む腕の骨の変形治癒のための矯正骨切り術のために使用することができる。解剖学的目印およびツールのためのマーカー(例えば、100、108、110など)は、データ収集(1000)のために使用され、、変形治癒および外科用器具の位置および向き(1002)の決定のために、それは手術前のCTスキャンデータと組み合わせられる。アルゴリズム(1006)を使用して、これに限定されないが、骨切り術部位の位置、切断角度、矯正の程度および結果の評価を含む解決策を決定する。
この方法を、初期の変形性関節症およびアライメント不良を矯正するための遠位大腿骨および近位脛骨骨切り術に使用することができる。解剖学的目印およびツールのためのマーカー(例えば、100、108、110など)は、データ収集(1000)のために使用され、、骨切り術の位置および規模ならびに手術道具の位置および方向(1002)の決定のために、それは手術前のCTスキャンデータまたは長脚X線画像と組み合わせられる。アルゴリズム(1006)を使用して、これに限定されないが、骨切り術部位の位置、切断角度、矯正の程度および結果の評価を含む解決策を決定する。
この方法を、臼蓋形成不全に対する寛骨臼周囲骨切り術に使用することができる。解剖学的目印およびツールのためのマーカー(例えば、100、108、110など)は、データ収集(1000)のために使用され、、骨切り術の位置および外科用器具の位置および方向(1002)の決定のために、それは手術前のCTスキャンデータと組み合わせられる。アルゴリズム(1006)を使用して、それに限定されないが、骨切り術部位の位置、角のある部分、矯正の程度および結果の評価を含む解決策を決定する。
この方法は、前述の実施形態と同様に、小児整形外科用骨切り術に使用することができる。解剖学的目印およびツールのためのマーカー(例えば、100、108、110など)は、データ収集(1000)のために使用され、、骨切り術の位置および外科用器具の位置および方向(1002)の決定のために、それは手術前のCTスキャンデータと組み合わせられる。アルゴリズム(1006)を使用して、これに限定されないが、骨切り術部位の位置、切断角度、矯正の程度および結果の評価を含む解決策を決定する。
この方法は、これに限定されないが、橈側側副靭帯再建術(RCL)およびUCL再建術(トミージョン)を含む肘靭帯再建術に使用することができる。解剖学的目印およびツールのためのマーカー(例えば、100、108、110など)は、データ収集(1000)のために使用され、、靭帯再建と手術器具のための等尺点の位置と方向の決定(1002)のために、それを、術前CTスキャンまたはMRIデータと組み合わせることができる。アルゴリズム(1006)を使用して、これに限定されないが、トンネル配置の正確な位置特定および結果の評価を含む解決策を決定する。
この方法を、これに限定されないが、MCL、LCL、ACL、PCLおよび後外側隅角再建を含む膝靭帯再建に使用することができる。解剖学的目印およびツールのためのマーカー(例えば、100、108、110など)は、データ収集(1000)のために使用され、、靭帯再建と手術器具のための等尺点の位置と方向の決定(1002)のために、それを、術前CTスキャンまたはMRIデータと組み合わせることができる。アルゴリズム(1006)を使用して、これに限定されないが、トンネル配置の正確な位置特定、トンネルの深さ、トンネルの角度、グラフトの配置、および結果の評価を含む解決策を決定する。
この方法を、これに限定されないが、不安定性を矯正するための再構成を含む足首靭帯の再建に使用することができる。解剖学的目印およびツールのためのマーカー(例えば、100、108、110など)は、データ収集(1000)のために使用され、、靭帯再建と手術器具のための等尺点の位置と方向の決定(1002)のために、それを、術前CTスキャンまたはMRIデータと組み合わせることができる。アルゴリズム(1006)を使用して、これに限定されないが、トンネル配置の正確な位置特定、トンネルの深さ、トンネルの角度、および結果の評価を含む解決策を決定する。
この方法を、これに限定されないが、鎖骨にトンネルがない配置を含む肩前鎖骨頸部関節再建術(AC)に使用することができる。解剖学的目印およびツールのためのマーカー(例えば、100、108、110など)は、データ収集(1000)のために使用され、、靭帯再建と手術器具のための等尺点の位置と方向の決定(1002)のために、それを、術前CTスキャンまたはMRIデータと組み合わせることができる。アルゴリズム(1006)を使用して、これに限定されないが、トンネル配置の正確な位置特定、トンネルの深さ、トンネルの角度、および結果の評価を含む解決策を決定する。
この方法を、改訂TSA/RSAを含む解剖学的および逆方向全肩置換術(TSAおよびRSA)の外科的処置に使用することができる。解剖学的目印およびツールのためのマーカー(例えば、100、108、110など)は、データ収集(1000)のために使用され、上腕頭、関連する目印および手術器具の位置および方向(1002)を決定するために、それを、術前CTスキャンまたはMRIデータと組み合わせることができる。アルゴリズム(1006)を使用して、これに限定されないが、上腕骨頭カットの正確な位置特定および関節窩骨の配置、ベースプレートとネジ、および関節窩補正のためのリーマ角およびガイド配置、および結果の評価を含む解決策を決定する。
この方法を、足関節全置換術の外科手術に使用することができる。解剖学的目印およびツールのためのマーカー(例えば、100、108、110など)は、データ収集(1000)のために使用され、脛骨、腓骨、距骨、舟状窩、他の関連する目印、および手術器具の位置および方向(1002)を決定するために、それを、術前CTスキャンまたはMRIデータと組み合わせることができる。アルゴリズム(1006)を使用して、これに限定されないが、脛骨頭の正確な位置特定、解剖学的軸の決定、および結果の評価を含む解決策を決定する。
この方法は、骨盤骨折、脛骨プラトー、寛骨臼および骨盤のための経皮ネジ留置に使用することができるが、これらの分野に限定されない。解剖学的目印およびツールのためのマーカー(例えば、100、108、110など)は、データ収集(1000)のために使用され、解剖学的およびその他の関連する目印およびネジを含む手術器具の位置および方向(1002)を決定するために、それを、術前CTスキャンまたはMRIデータと組み合わせることができる。アルゴリズム(1006)を使用して、これに限定されないが、ネジを受ける骨の正確な位置特定、回避すべき周囲の解剖学的構造および軟組織の特徴、ネジの位置、挿入角度、挿入の深さ、および結果の評価を含む解決策を決定する。
この方法を、これに限定されないが、足首、膝、股関節、肩部および脊椎を含む領域への院内注射に使用することができる。解剖学的目印およびツールのためのマーカー(例えば、100、108、110など)は、データ収集(1000)のために使用され、関連する目印および手術器具の位置および方向(1002)を決定するために、それを、術前CTスキャンまたはMRIデータと組み合わせることができる。アルゴリズム(1006)を使用して、これに限定されないが、効果を最大にし、内臓および解剖学との相互作用を最小にするために、注射位置の正確な位置特定、角のある部分、および深さを含む解決策を決定する。
この方法は、腰椎および胸椎を含む脊椎固定術のための椎弓根スクリューの配置に使用することができるが、これらの領域に限定されない。解剖学的目印およびツールのためのマーカー(例えば、100、108、110など)は、データ収集(1000)のために使用され、解剖学的およびその他の関連する目印およびネジを含む手術器具の位置および方向(1002)を決定するために、それを、術前CTスキャンまたはMRIデータと組み合わせることができる。アルゴリズム(1006)を使用して、これに限定されないが、ネジを受ける骨の正確な位置特定、皮質の開口部、頭蓋−尾側角形成または同様の内側−側傾斜、ねじの挿入軌跡、挿入の深さ、および結果の評価を含む解決策を決定する。
この方法を、これに限定されないが、赤外線、紫外線、足首、膝、股関節、肩部および脊椎を含む代替スペクトル画像の視覚化に使用することができる。解剖学的目印およびツールのためのマーカー(例えば、100、108、110など)は、データ収集(1000)のために使用され、それは、下記に限定されないが、関連する目印および手術器具、位置、場所、および神経、腫瘍、軟組織、および動脈を含む代替スペクトルでより容易に確認できる解剖学的特徴のタイプの位置および方向(1002)を決定するための、患者の特徴を強調するための、代替感受性スペクトルおよび/または注入色素を備えたデュアルカラーカメラを含む。アルゴリズム(1006)を使用して、これに限定されないが、神経、腫瘍、関心のある軟組織、動脈およびこの技術で強化できるその関心のある他の特徴の正確な位置特定を含む解決策を決定する。
この方法を、腫瘍診断、病期分類および根治的外科手術に使用することができる。解剖学的目印およびツールのためのマーカー(例えば、100、108、110など)は、データ収集(1000)のために使用され、腫瘍の位置および手術器具の位置および方向(1002)を決定するために、それを、術前CTスキャンまたはMRIデータと組み合わせることができる。あるいは診断外科手術中に、解剖学的目印に関して腫瘍の位置を特定することができる。アルゴリズム(1006)を使用して、これに限定されないが、腫瘍部位の位置および大きさの範囲、切除の手引きおよび結果の評価を含む解決策を決定する。
この方法を、これに限定されないが、骨の目印、神経、腫瘍、および他の有機物および無機物を含む、視野内の関心のある対象物上への可視または不可視だがカメラ可視光の点の投影に使用することができる。マーカー(例えば、100、108、110など)は、解剖学的データのために外部データセットを増強または置換するために使用され、前述のように物理的なポインタまたはツールの代わりに使用することができる。光点は、ユーザのヘッドディスプレイまたは他の場所から表示することができる。光点はまた、パターンまたは他の光の配列として明示することもできる。これに限定されないが、蛍光透視法、CTスキャンおよびMRIデータを含むデータセットの増強ならびに関連する目印および手術器具の位置および方向(1002)を決定するために、これらの光は患者の特徴を強調する。アルゴリズム(1006)を使用して、代替または追加の選択オプションを使用した前述の解決策を決定する。
この方法を、インプラントの低侵襲的位置決めおよび経皮的な固定ネジの挿入に使用することができる。マーカー(例えば100、108、または110など)は、髄内くぎの近位端に取り付けられる。別のマーカー(例えば100、108、または110など)がクロススクリュー挿入器具に取り付けられている。固定クロスネジの目標軌道を含むネイルの仮想モデルが表示される。仮想クロスネジを目標軌道と位置合わせすることによって、外科医は、クロスネジを挿入することができる。別の実施形態において、同じ方法を外部固定プレートにも適用することができる。この場合、各穴に一つずつ、複数のロッキングネジ軌跡を有する仮想ロッキングプレートが表示される。
VIII.追跡可能な器具および機器のデータベース
ARヘッドセット3600がどの器具が手術野または手術室領域に存在するかを識別することを可能にするために、本発明は、任意に、機器および器具の電子データベースの構築を有する。図29を参照すると、そのようなデータベースの構築を容易にするために、シリアル化された追跡ラベル2900がシステムに任意に含まれる。シリアル化された追跡ラベル2900は、機械読み取り可能なシリアル番号コード2902、人間が読み取り可能なシリアル番号2904、および複数の基準点2906のような6自由度の光学的姿勢追跡を容易にする1組の光学的特徴を有する。一実施形態において、機械可読番号コード2902パターンは、ARヘッドセット3600のカメラ3904によって撮像され、機械視覚アルゴリズムを使用して医療機器の姿勢および位置を決定するために単独で使用され得る。別の実施形態において、シリアル番号画像2904は、カメラ3904によって撮像され、機械視覚アルゴリズムを使用して医療機器の姿勢および位置を決定するために単独で使用され得る。さらに別の実施形態において、追跡ラベル2900の物理モデル全体は、カメラ3904によって撮像され、機械視覚アルゴリズムを使用して医療機器の姿勢および位置を決定するために単独で使用され得る。別の実施形態において、追跡ラベル2900は、光学的認識を使用して自動的に検証できる、キット内の機器の非光学的識別のための無線RFIDタグから構成されても、またはそれらを含んでもよい。
図30を参照すると、拡張現実ヘッドセットを使用して、手術で使用するために、機器のアイテムタイプおよび物理的パラメータを登録し、このデータを記憶および共有するためのシステムを示すフローチャートが提供される。この例示的な実施形態において、シリアル化された追跡可能なラベルは、耐久性のある自己接着材料に事前に印刷されている。外科的処置の間に最も有利に見られる場所で、処置(すなわちバックテーブル操作)に至る準備作業において、ラベルは、これらに限定されないが、Cアーム、インパクター、ポインタ、または処置で使用される他の機器であり得る機器のアイテム(3000)に取り付けられる(3002)。カメラ3904で見て、ラベルを識別し、シリアル番号に関連するデータベース記録を開始することによって、ラベルを登録する(3004)。機器のアイテムに関連する関心のある幾何学的形状もまた登録され(3006)、追跡可能なステッカーに対して格納され得る。例えば、Cアームの場合、登録スタイラスを使用して、撮像装置の面の周囲の3点とX線ビーム源の原点を表す1点を登録する。これにより、ARヘッドセット3600のアルゴリズムによって使用される、ARヘッドセット3600の座標枠に対する、X線ビーム源の座標枠、向き(姿勢)データ、および位置データが提供される。一代替実施形態において、カメラ3904は、ステレオカメラであり、撮像装置の円筒形または長方形の表面などの重要な特徴の認識により、Cアームの幾何学的形状を走査し認識するために使用される。機器のアイテムに関する追加の関連仕様(3008)を記録に入れることができ、下記に限定されないが、機器のタイプとモデル、校正期限、電子インタフェースパラメータ、およびワイヤレス接続パスワードを含む。デバイスの画像は、カメラ3904を用いて取り込まれる3010。デバイスの機器ラベル(3012)の画像が取り込まれる。これらの全てのアイテムは、現在ARヘッドセット3600にローカルである完成した記録(3014)に追加される。記録はタイムスタンプを押され、中央データベースと共有される(3016)。これを、病院システム内のローカルサーバまたはインターネットを介した任意のクラウドベースのストレージを含む任意のリモートサーバに配置することができる。データベースのアップロードは、Wi−Fi共通ネットワークプロトコルまたは他の技術開示の手段を介して行われてもよい。上記の行動は、会社の代表者、病院で雇用されている技術者、または他の訓練を受けた個人によって行われてもよい。登録が不十分な機器がデータベースに入ることを防止するために、レコードをキャプチャするために管理者権限が必要とされてもよい。
機器のアイテムが手術で使用されている場合、カメラ3904を使用してラベルを、機器の追跡可能なアイテムとして認識し、シリアル番号を読み取る(3018)。次いで、ARヘッドセット3600はデータベースに接続し(3020)、機器記録をダウンロードすることができる(3022)。したがって、手術中に機器を6自由度追跡可能な方法で使用することができる(3024)。該当する場合には、データラベルを有する機器に対して、記録(3026)も機器自体に固有のデータで更新されてもよく、例えば、手術中に機器によって取り込まれた画像をアップロードしたり、ログ内の手術中の機器の活動のログを取り込んでもよい。手術における機器の使用を記述するログエントリは、データベースおよび機器の利用を示す患者記録に追加することができる。このようにして生成されたデータベースは、欠陥のある機器の使用を検索するなどのさまざまな理由でマイニングできる。
このシステムは、外科手術中に遭遇する外科手術器具およびインプラントを認識するために使用され得る。計測する器具や機器のCADモデルのデータベースが、メモリに保持される。処置中、SLAMまたは同様の機械視覚アルゴリズムは、シーン内のアイテムのトポグラフィを取り込んで、器具や機器に関するデータベースと比較できる。一致が見つかった場合、システムは、患者および手術に使用されている他の器具に対する器具の位置および配向を追跡するか、またはその器具の使用に関連するモードに入るなどの適切な行動をとることができる。例えば、股関節置換術において、寛骨臼インパクターが検出された場合、カップ配置ナビゲーションのモードに入る。
本発明は、好ましい実施形態およびその特定の実施例を参照して本明細書で例示および記載されてきたが、他の実施形態および実施例が同様の機能を実行し、および/または同様の結果を達成することができることは、当業者には容易に明らかであろう。全てのそのような同等の実施形態および実施例は、本発明の精神および範囲内にあり、それによって企図され、添付の特許請求の範囲によって網羅されることを意図している。
特に明記しない限り、本明細書に示されているさまざまな構造の寸法および形状は、本発明を限定することを意図したものではなく、他の寸法または形状も可能である。複数の構成要素を、単一の一体構造により提供することが可能である。あるいは、単一の統合構造を別々の複数のコンポーネントに分割することができる。さらに、本発明の特徴を図示の実施形態のうちの1つのみに関連して記載したが、例えば、そのような特徴は、任意の所与の用途について、他の実施形態の1つまたは複数の他の特徴と組み合わせることができる。本明細書における独特の構造の製造およびその操作もまた本発明による方法を構成することも上記から理解されるであろう。

Claims (21)

  1. 処理ユニット、ディスプレイジェネレータ、および少なくとも1つの追跡カメラを有するセンサ群を有する手術中にユーザが装着する頭部装着型表示装置と、手術器具に固定して取り付けられた、前記カメラによって追跡可能な少なくとも1つの視覚的マーカーを備える複合現実外科手術ナビゲーションシステムであって、
    前記処理ユニットは、関心のある解剖学的対象の部分的に露出された表面の三次元表面を、前記センサ群から受信したデータでマッピングし、
    前記処理ユニットは、前記三次元表面を前記解剖学的対象の三次元モデルに一致させることによって、前記解剖学的対象に対する基準フレームを確立し、
    前記処理ユニットは、前記センサ群から受信したデータを用いて、前記手術器具の6自由度の姿勢を追跡し、
    前記処理ユニットは、前記ディスプレイと通信して、前記手術器具の所望の特徴および前記ユーザの視野内の前記解剖学的対象の所望の特徴の立体虚像を含む複合現実感ユーザ・インターフェースを提供する、複合現実外科手術ナビゲーションシステム。
  2. 前記センサ群は、さらに深度センサを有し、前記所望の解剖学的対象の三次元表面をマッピングするために、前記深度センサは、データを前記処理ユニットに提供する請求項1に記載のシステム。
  3. 前記センサ群は、さらに慣性測定ユニットを有する請求項1に記載のシステム。
  4. 前記センサ群は、さらにマイクロフォンおよびスピーカーを有する請求項1に記載のシステム。
  5. 前記システムは、前記ユーザの音声コマンドにより制御できる請求項4に記載のシステム。
  6. 外科用フードに取り外し可能に取り付けることができるように構成されている手術用ヘルメットをさらに備える請求項1に記載のシステム。
  7. 前記システムの画像表示として機能するフェイスシールドをさらに備える請求項1に記載のシステム。
  8. 前記センサ群は、触覚フィードバック手段をさらに有する請求項1に記載のシステム。
  9. 前記システムは、さらに前記表示装置から離れて位置する第2のセンサ群を有し、
    前記第2のセンサ群は、前記処理ユニットと通信する請求項1に記載のシステム。
  10. 前記中央処理装置は、前記立体虚像の生成のために、X線透視画像、コンピュータ断層撮影スキャン、磁気共鳴画像データ、陽電子放出断層撮影スキャン、およびそれらの組み合わせからなる群から選択される外部データを組み込む請求項1に記載のシステム。
  11. 解剖学的対象の前記部分的に露出された表面は、椎骨の前記後部および乳頭突起、骨盤の前記寛骨臼、肩甲骨の前記関節窩、大腿骨の前記関節面、大腿骨の前記首、および脛骨の前記関節面からなる群から選択される請求項1に記載のシステム。
  12. 手術ナビゲーションシステム用の複合現実感ユーザ・インターフェースであって、前記複合現実感ユーザ・インターフェースは、複合現実外科手術ナビゲーションシステムによって提供される、ユーザの視野内の手術器具の所望の特徴および関心のある解剖学的対象の所望の特徴の立体虚像を備え、前記複合現実外科手術ナビゲーションシステムは(i)処理ユニット、ディスプレイ、および少なくとも1つの追跡カメラを有するセンサ群を有する頭部装着型表示装置、および(ii)前記カメラによって追跡可能な少なくとも1つの視覚的マーカーを有し、
    前記複合現実感ユーザ・インターフェースは、以下のプロセスによって得られる:
    a前記頭部装着型表示装置をユーザの頭に装着することと、
    b前記マーカーを有する前記手術器具を提供することと、
    c解剖学的対象の部分的に露出された表面の三次元表面のデータを得るために、前記センサ群を使用して、前記所望の解剖学的対象をスキャンすることと、
    d前記解剖学的対象の前記特徴の仮想三次元モデルの登録のために、前記三次元表面の前記データを前記処理ユニットに送信することと、
    e前記処理ユニットに送信するためのデータを取得するために、前記センサ群を使用して、前記手術器具の6自由度の姿勢を追跡することと、
    f前記ユーザの視野内に前記手術器具の前記特徴および前記解剖学的対象の前記特徴の立体虚像を備える複合現実感ユーザ・インターフェースを表示すること、である前記複合現実感ユーザ・インターフェース。
  13. X線透視画像、コンピュータ断層撮影スキャン、磁気共鳴画像データ、陽電子放出断層撮影スキャン、およびそれらの組み合わせからなる群から選択される外部データを、前記複合現実感ユーザ・インターフェースに組み込むことをさらに備える請求項12に記載の複合現実感ユーザ・インターフェース。
  14. 前記センサ群は、さらに深度センサを有し、
    三次元表面の前記マッピングのために、前記深度センサは、データを、前記処理ユニットに提供する請求項12に記載の複合現実感ユーザ・インターフェース。
  15. 前記センサ群は、深度センサ、慣性測定ユニット、マイクロフォン、スピーカー、および触覚フィードバック手段からなる群から選択される少なくとも1つのコンポーネントをさらに有する請求項12に記載の複合現実感ユーザ・インターフェース。
  16. 前記ユーザが所望のバージョンおよび傾斜を達成するのをさらに支援するために、対象、手術器具、およびそれらの組み合わせからなる群から選択される少なくとも1つの仮想オブジェクトを前記複合現実感ユーザ・インターフェースに組み込むことをさらに備える請求項12に記載の複合現実感ユーザ・インターフェース。
  17. 前記解剖学的対象、第2の解剖学的対象、第3の解剖学的対象、スタイラス、超音波プローブ、ドリル、のこぎり、ドリルビット、寛骨臼インパクター、椎弓根スクリュー、Cアーム、およびそれらの組み合わせからなる群から選択される前記オオブジェクトの少なくとも1つに視覚的マーカーを取り付けることと、
    前記複合現実感ユーザ・インターフェースに組み込むために、前記処理ユニットに送信するためのデータを取得するために、各オブジェクトが6自由度の姿勢を持つ前記オブジェクトのうちの前記少なくとも1つを前記センサ群で追跡すること、とをさらに備える請求項12に記載の複合現実感ユーザ・インターフェース。
  18. 前記複合現実感ユーザ・インターフェースは、ドリルの目標軌道、のこぎりの目標切除面、椎弓根スクリューの目標軌道、寛骨臼インパクターの目標位置、大腿骨の目標基準位置、および股関節置換術における前記大腿骨頸部の目標切除面からなる群から選択される少なくとも1つのオブジェクトの虚像を提供する請求項17に記載の複合現実感ユーザ・インターフェース。
  19. 前記医療処置は、股関節置換手術、膝関節置換手術、脊椎固定術、腕の骨の癒合に対する矯正骨切り術、遠位大腿骨および近位脛骨骨切り術、寛骨臼周囲骨切り術、肘靭帯再建術、膝靭帯再建、足首靭帯の再建、肩側鎖端関節再建術、肩関節全置換術、肩関節逆置換術、足関節全置換術、腫瘍の診断手順、腫瘍の除去手順、解剖学的対象への経皮ネジ留置、Cアームと患者の解剖学的構造との位置合わせ、および解剖学的対象への注射からなる群から選択される請求項12に記載の複合現実感ユーザ・インターフェース。
  20. 前記手術器具は、超音波プローブであり、
    前記解剖学的対象は、所望の手術部位に隣接する椎骨であり、
    前記プロセスは、さらに下記を有する:
    前記超音波プローブを使用して、関心のある任意の椎骨を含む前記所望の手術部位を囲む領域を走査することと、
    前記超音波プローから受信した画像データを前記処理ユニットに送信することと、
    前記椎骨の三次元表面を生成するために、前記超音波から受信した前記画像データを、前記センサ群から受信した前記超音波の前記姿勢データと組み合わせることと、
    前記所望の手術部位の前記立体虚像を登録するために、前記処理ユニットによって、前記椎骨の前記三次元表面を、前記複合現実感ユーザ・インターフェースに組み込むこと、である請求項12に記載の複合現実感ユーザ・インターフェース。
  21. 器具の先端を中心とした三次元拡大立体虚像と重ね合わされた前記器具および周囲環境の画像を示す手術ナビゲーションシステム用の複合現実感ユーザ・インターフェースであって、
    前記画像は、前記器具の動きをリアルタイムで示す、手術ナビゲーションシステム用の複合現実感ユーザ・インターフェース。
JP2019506669A 2016-08-16 2017-08-11 医療処置における感覚増強のためのシステム Pending JP2019534717A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022084943A JP2022116157A (ja) 2016-08-16 2022-05-25 医療処置における感覚増強のためのシステム
JP2024120717A JP2024153759A (ja) 2016-08-16 2024-07-26 医療処置における感覚増強のためのシステム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662375483P 2016-08-16 2016-08-16
US62/375,483 2016-08-16
PCT/US2017/046438 WO2018063528A1 (en) 2016-08-16 2017-08-11 Systems for sensory augmentation in medical procedures

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022084943A Division JP2022116157A (ja) 2016-08-16 2022-05-25 医療処置における感覚増強のためのシステム

Publications (1)

Publication Number Publication Date
JP2019534717A true JP2019534717A (ja) 2019-12-05

Family

ID=59702853

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019506669A Pending JP2019534717A (ja) 2016-08-16 2017-08-11 医療処置における感覚増強のためのシステム
JP2022084943A Pending JP2022116157A (ja) 2016-08-16 2022-05-25 医療処置における感覚増強のためのシステム
JP2024120717A Pending JP2024153759A (ja) 2016-08-16 2024-07-26 医療処置における感覚増強のためのシステム

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022084943A Pending JP2022116157A (ja) 2016-08-16 2022-05-25 医療処置における感覚増強のためのシステム
JP2024120717A Pending JP2024153759A (ja) 2016-08-16 2024-07-26 医療処置における感覚増強のためのシステム

Country Status (6)

Country Link
US (1) US20180049622A1 (ja)
EP (2) EP4385446A3 (ja)
JP (3) JP2019534717A (ja)
CN (2) CN117752414A (ja)
AU (2) AU2018316092B2 (ja)
WO (2) WO2018063528A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102221898B1 (ko) * 2019-12-30 2021-03-03 주식회사 버넥트 가이드 도구 기반의 가상 객체 시각화 방법
WO2021112312A1 (ko) * 2019-12-06 2021-06-10 서울대학교산학협력단 임플란트 수술을 위한 증강현실 도구 및 임플란트 수술정보 가시화 방법
CN113274128A (zh) * 2020-02-19 2021-08-20 格罗伯斯医疗有限公司 外科手术系统

Families Citing this family (118)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2886513T3 (es) 2013-03-15 2021-12-20 Massachusetts Gen Hospital Síntesis inspiratoria de óxido nítrico
WO2015088500A1 (en) * 2013-12-10 2015-06-18 Halliburton Energy Services, Inc. Continuous live tracking system for placement of cutting elements
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
EP3273854B1 (en) 2015-03-26 2021-09-22 Universidade de Coimbra Systems for computer-aided surgery using intra-operative video acquired by a free moving camera
EP3284252B1 (en) 2015-04-13 2021-07-21 Universidade De Coimbra Methods and systems for camera characterization in terms of response function, color, and vignetting under non-uniform illumination
US10905496B2 (en) * 2015-11-16 2021-02-02 Think Surgical, Inc. Method for confirming registration of tracked bones
CN111329551A (zh) 2016-03-12 2020-06-26 P·K·朗 用于脊柱和关节手术的增强现实引导
US20170367766A1 (en) * 2016-03-14 2017-12-28 Mohamed R. Mahfouz Ultra-wideband positioning for wireless ultrasound tracking and communication
BR112018069582A2 (pt) 2016-03-25 2019-01-22 Massachusetts Gen Hospital sistemas e métodos de entrega para síntese elétrica de plasma de óxido nítrico
US10398514B2 (en) 2016-08-16 2019-09-03 Insight Medical Systems, Inc. Systems and methods for sensory augmentation in medical procedures
US11071596B2 (en) 2016-08-16 2021-07-27 Insight Medical Systems, Inc. Systems and methods for sensory augmentation in medical procedures
US11839433B2 (en) 2016-09-22 2023-12-12 Medtronic Navigation, Inc. System for guided procedures
CA3049662A1 (en) * 2017-01-16 2018-07-19 Philipp K. Lang Optical guidance for surgical, medical, and dental procedures
AU2018223826B2 (en) 2017-02-27 2019-11-07 Third Pole, Inc. Systems and methods for generating nitric oxide
KR20190125991A (ko) 2017-02-27 2019-11-07 써드 폴, 아이엔씨. 산화질소의 이동식 생성을 위한 시스템 및 방법
MX2020010523A (es) 2017-02-27 2021-02-09 Third Pole Inc Sistemas y metodos para generar oxido nitrico.
AU2018230901B2 (en) 2017-03-10 2020-12-17 Biomet Manufacturing, Llc Augmented reality supported knee surgery
EP3596657A4 (en) 2017-03-14 2021-01-13 Universidade De Coimbra SYSTEMS AND METHODS FOR 3D REGISTRATION OF CURVES AND SURFACES USING VARIOUS LOCAL INFORMATION
MX2019011432A (es) 2017-03-31 2020-01-20 Massachusetts Gen Hospital Sistemas y metodos para un generador de oxido nitrico enfriado.
EP3470006B1 (en) 2017-10-10 2020-06-10 Holo Surgical Inc. Automated segmentation of three dimensional bony structure images
EP3445048A1 (en) 2017-08-15 2019-02-20 Holo Surgical Inc. A graphical user interface for a surgical navigation system for providing an augmented reality image during operation
WO2019040493A1 (en) * 2017-08-21 2019-02-28 The Trustees Of Columbia University In The City Of New York SYSTEMS AND METHODS FOR AUGMENTED REALITY GUIDANCE
US11801114B2 (en) 2017-09-11 2023-10-31 Philipp K. Lang Augmented reality display for vascular and other interventions, compensation for cardiac and respiratory motion
US11043031B2 (en) * 2017-10-20 2021-06-22 Google Llc Content display property management
EP3706646A1 (en) 2017-11-10 2020-09-16 Smith & Nephew, Inc. Orthopedic systems, components, and methods
US11272985B2 (en) * 2017-11-14 2022-03-15 Stryker Corporation Patient-specific preoperative planning simulation techniques
US11944272B2 (en) * 2017-12-07 2024-04-02 Medtronic Xomed, Inc. System and method for assisting visualization during a procedure
WO2019148154A1 (en) 2018-01-29 2019-08-01 Lang Philipp K Augmented reality guidance for orthopedic and other surgical procedures
EP3528210A1 (en) * 2018-02-14 2019-08-21 Koninklijke Philips N.V. An imaging system and method with stitching of multiple images
US11980507B2 (en) 2018-05-02 2024-05-14 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
US10869727B2 (en) * 2018-05-07 2020-12-22 The Cleveland Clinic Foundation Live 3D holographic guidance and navigation for performing interventional procedures
CN110555358B (zh) * 2018-06-01 2023-09-12 苹果公司 用于检测和识别ar/vr场景中的特征部的方法和设备
CN108742898B (zh) * 2018-06-12 2021-06-01 中国人民解放军总医院 基于混合现实的口腔种植导航系统
CN112566578B (zh) * 2018-06-19 2024-09-20 豪迈帝凯奥斯泰纳克公司 针对骨科外科手术使用虚拟模型或虚拟表示进行的混合现实辅助教学
US10410542B1 (en) * 2018-07-18 2019-09-10 Simulated Inanimate Models, LLC Surgical training apparatus, methods and systems
EP3608870A1 (en) 2018-08-10 2020-02-12 Holo Surgical Inc. Computer assisted identification of appropriate anatomical structure for medical device placement during a surgical procedure
US11529038B2 (en) * 2018-10-02 2022-12-20 Elements Endoscopy, Inc. Endoscope with inertial measurement units and / or haptic input controls
EP3640767B1 (de) * 2018-10-17 2024-09-11 Siemens Schweiz AG Verfahren zum bestimmen mindestens eines bereichs in mindestens einem eingabemodell für mindestens ein zu platzierendes element
US20200129241A1 (en) * 2018-10-30 2020-04-30 Think Surgical, Inc. Surgical markers for robotic surgery with reduced bone penetration
KR102270170B1 (ko) * 2018-11-14 2021-06-25 임승준 증강 현실을 이용한 수술 보조 장치
US11000382B1 (en) * 2018-11-15 2021-05-11 Little Engine, LLC Apparatus and method for joint characterization and treatment
US11287874B2 (en) * 2018-11-17 2022-03-29 Novarad Corporation Using optical codes with augmented reality displays
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US10939977B2 (en) 2018-11-26 2021-03-09 Augmedics Ltd. Positioning marker
US20200170751A1 (en) * 2018-11-30 2020-06-04 Think Surgical, Inc. System and method for fiducial attachment for orthopedic surgical procedures
WO2020123709A1 (en) * 2018-12-12 2020-06-18 Tornier, Inc. Orthopedic surgical planning based on soft tissue and bone density modeling
WO2020154448A1 (en) 2019-01-23 2020-07-30 Eloupes, Inc. Aligning pre-operative scan images to real-time operative images for a mediated-reality view of a surgical site
US11810473B2 (en) 2019-01-29 2023-11-07 The Regents Of The University Of California Optical surface tracking for medical simulation
US11495142B2 (en) 2019-01-30 2022-11-08 The Regents Of The University Of California Ultrasound trainer with internal optical tracking
US11207142B2 (en) 2019-02-01 2021-12-28 Tcc Media Lab Co., Ltd Composite image generation system and initial condition resetting system
US11553969B1 (en) 2019-02-14 2023-01-17 Onpoint Medical, Inc. System for computation of object coordinates accounting for movement of a surgical site for spinal and other procedures
US11857378B1 (en) 2019-02-14 2024-01-02 Onpoint Medical, Inc. Systems for adjusting and tracking head mounted displays during surgery including with surgical helmets
CN109820590B (zh) * 2019-02-15 2024-04-12 中国人民解放军总医院 一种骨盆骨折复位智能监控系统
WO2020172076A1 (en) 2019-02-20 2020-08-27 OperVu, Inc. System and method to detect and track surgical instruments and/or surgical material
WO2020198457A1 (en) * 2019-03-26 2020-10-01 Mighty Oak Medical, Inc. Patient-matched apparatus for use in augmented reality assisted surgical procedures and methods for using the same
WO2020232397A1 (en) 2019-05-15 2020-11-19 Third Pole, Inc. Electrodes for nitric oxide generation
US11479464B2 (en) 2019-05-15 2022-10-25 Third Pole, Inc. Systems and methods for generating nitric oxide
AU2020282774A1 (en) 2019-05-29 2021-12-23 Murphy, Stephen B Systems and methods for utilizing augmented reality in surgery
JP7296254B2 (ja) * 2019-06-07 2023-06-22 株式会社モリタ マーカー取付け器具、及びマーカー取付け器具の取付け方法
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
JP2022550148A (ja) 2019-09-26 2022-11-30 ストライカー・ユーロピアン・オペレーションズ・リミテッド 手術器具用トラッカ
US11890066B2 (en) 2019-09-30 2024-02-06 Globus Medical, Inc Surgical robot with passive end effector
US11426178B2 (en) 2019-09-27 2022-08-30 Globus Medical Inc. Systems and methods for navigating a pin guide driver
US11864857B2 (en) 2019-09-27 2024-01-09 Globus Medical, Inc. Surgical robot with passive end effector
EP4038631A1 (en) * 2019-10-03 2022-08-10 Howmedica Osteonics Corp. Cascade of machine learning models to suggest implant components for use in orthopedic joint repair surgeries
EP3819699B1 (en) * 2019-11-08 2024-02-21 Leica Instruments (Singapore) Pte. Ltd. Optical system and corresponding apparatus, method and computer program
DE102019132308A1 (de) * 2019-11-28 2021-06-02 Carl Zeiss Meditec Ag Optisches Beobachtungssystem mit kontaktloser Zeigeeinheit, Betriebsverfahren und Computerprogrammprodukt
WO2021113095A1 (en) * 2019-12-03 2021-06-10 Tornier, Inc. Targeting tool for virtual surgical guidance
US12133772B2 (en) * 2019-12-10 2024-11-05 Globus Medical, Inc. Augmented reality headset for navigated robotic surgery
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
WO2021230834A1 (en) * 2019-12-31 2021-11-18 Havelsan Hava Elektronik Sanayi Ve Ticaret Anonim Sirketi Tool-independent 3-dimensional surface haptic interface
WO2021142472A1 (en) 2020-01-11 2021-07-15 Third Pole, Inc. Systems and methods for nitric oxide generation with humidity control
US11237627B2 (en) 2020-01-16 2022-02-01 Novarad Corporation Alignment of medical images in augmented reality displays
KR20220141308A (ko) * 2020-02-10 2022-10-19 인사이트 메디칼 시스템즈, 인코포레이티드 의료 시술에서 감각 증강을 위한 시스템 및 방법
FR3107449B1 (fr) * 2020-02-20 2022-01-21 One Ortho Système de guidage en réalité augmentée d’une opération chirurgicale d’une partie d’articulation d’un os
EP3882682A1 (en) 2020-03-20 2021-09-22 Leica Instruments (Singapore) Pte. Ltd. Illumination system, system, method and computer program for a microscope system
US11857271B2 (en) 2020-04-29 2024-01-02 Future Health Works Ltd. Markerless navigation using AI computer vision
US20210346093A1 (en) * 2020-05-06 2021-11-11 Warsaw Orthopedic, Inc. Spinal surgery system and methods of use
US12042341B2 (en) * 2020-05-06 2024-07-23 Howmedica Osteonics Corp. Registration marker with anti-rotation base for orthopedic surgical procedures
US11931267B2 (en) * 2020-05-15 2024-03-19 Jeffrey Wilde Joint implant extraction and placement system and localization device used therewith
CN111631814B (zh) * 2020-06-11 2024-03-29 上海交通大学医学院附属第九人民医院 术中血管立体定位导航系统及方法
US11389252B2 (en) 2020-06-15 2022-07-19 Augmedics Ltd. Rotating marker for image guided surgery
EP4167920A4 (en) 2020-06-18 2024-06-12 Third Pole, Inc. SYSTEMS AND METHODS FOR PREVENTING AND TREATING INFECTIONS WITH NITRIC OXIDE
US11571225B2 (en) * 2020-08-17 2023-02-07 Russell Todd Nevins System and method for location determination using movement between optical labels and a 3D spatial mapping camera
RU2754288C1 (ru) * 2020-10-06 2021-08-31 Владимир Михайлович Иванов Способ подготовки и выполнения хирургической операции на голове с использованием смешанной реальности
US12053247B1 (en) 2020-12-04 2024-08-06 Onpoint Medical, Inc. System for multi-directional tracking of head mounted displays for real-time augmented reality guidance of surgical procedures
US12016633B2 (en) 2020-12-30 2024-06-25 Novarad Corporation Alignment of medical images in augmented reality displays
US11164391B1 (en) * 2021-02-12 2021-11-02 Optum Technology, Inc. Mixed reality object detection
US11210793B1 (en) 2021-02-12 2021-12-28 Optum Technology, Inc. Mixed reality object detection
WO2022192585A1 (en) 2021-03-10 2022-09-15 Onpoint Medical, Inc. Augmented reality guidance for imaging systems and robotic surgery
US20220331008A1 (en) 2021-04-02 2022-10-20 Russell Todd Nevins System and method for location determination using movement of an optical label fixed to a bone using a spatial mapping camera
CN113317876A (zh) * 2021-06-07 2021-08-31 上海盼研机器人科技有限公司 一种基于增强现实的颅颌面骨折修复导航系统
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
CN113679447B (zh) * 2021-07-20 2023-02-28 国家康复辅具研究中心 一种用于股骨远端截骨术的导航模板及其设计方法
CN113476140A (zh) * 2021-08-10 2021-10-08 贺世明 一种增强现实辅助下脊柱内固定螺钉植入方法和系统
WO2023021448A1 (en) * 2021-08-18 2023-02-23 Augmedics Ltd. Augmented-reality surgical system using depth sensing
CN113842227B (zh) * 2021-09-03 2024-04-05 上海涞秋医疗科技有限责任公司 医疗辅助三维模型定位匹配方法、系统、设备及介质
CN113786228B (zh) * 2021-09-15 2024-04-12 苏州朗润医疗系统有限公司 一种基于ar增强现实的辅助穿刺导航系统
US11612421B1 (en) 2021-09-20 2023-03-28 Little Engine, LLC Tensioner-balancer for knee joint
JP2024534608A (ja) 2021-09-23 2024-09-20 サード ポール,インコーポレイテッド 一酸化窒素を送達するシステム及び方法
US11600053B1 (en) * 2021-10-04 2023-03-07 Russell Todd Nevins System and method for location determination using a mixed reality device and multiple imaging cameras
IL312436A (en) 2021-10-23 2024-06-01 Simulated Inanimate Models Llc Device, methods and systems for guidance in guiding procedures
US20230240405A1 (en) * 2022-02-02 2023-08-03 Ted Spooner Mixed reality surgical helmet
WO2023165568A1 (en) * 2022-03-02 2023-09-07 Fu Jen Catholic University Surgical navigation system and method thereof
CN114451997B (zh) * 2022-03-08 2023-11-28 长春理工大学 一种解决光学遮挡的手术导航装置及导航方法
CN114983567A (zh) * 2022-04-21 2022-09-02 北京埃克索医疗科技发展有限公司 一种股骨颈骨折微创手术导航系统
US11612503B1 (en) 2022-06-07 2023-03-28 Little Engine, LLC Joint soft tissue evaluation method
US11602443B1 (en) 2022-06-07 2023-03-14 Little Engine, LLC Knee evaluation and arthroplasty method
US11642118B1 (en) 2022-06-07 2023-05-09 Little Engine, LLC Knee tensioner-balancer and method
WO2023249876A1 (en) * 2022-06-20 2023-12-28 Smith & Nephew, Inc. Systems and methods for navigated reaming of the acetabulum
CN115363751B (zh) * 2022-08-12 2023-05-16 华平祥晟(上海)医疗科技有限公司 术中解剖结构指示方法
WO2024057210A1 (en) 2022-09-13 2024-03-21 Augmedics Ltd. Augmented reality eyewear for image-guided medical intervention
WO2024102728A1 (en) * 2022-11-07 2024-05-16 The General Hospital Corporation Application of computer vision to enable real-time digital measurements and targeting during arthroscopy
WO2024125772A1 (en) * 2022-12-13 2024-06-20 Stryker European Operations Limited Simultaneous multi-view live targeting leveraging patient-mounted reference bodies
EP4431041A1 (en) * 2023-03-13 2024-09-18 Incremed AG Marker system
CN116487074B (zh) * 2023-06-20 2023-08-18 四川省医学科学院·四川省人民医院 一种基于5g的远程医疗辅助方法、装置及其系统
CN118012275B (zh) * 2024-04-10 2024-06-07 北京航空航天大学 一种三维工业ct虚拟现实交互系统
CN118557288B (zh) * 2024-07-31 2024-10-01 北京大学人民医院 一种光学导航系统立体定位示踪器及骨刀

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010500127A (ja) * 2006-08-08 2010-01-07 ヴァイアシス・ホールディングス・インコーポレーテッド 大容量空気供給システムを含む、外科手術用防護ヘッドギア組立品
US20130237811A1 (en) * 2012-03-07 2013-09-12 Speir Technologies Inc. Methods and systems for tracking and guiding sensors and instruments
JP2014120786A (ja) * 2012-12-13 2014-06-30 Seiko Epson Corp 頭部装着型表示装置および頭部装着型表示装置の制御方法
US20160191887A1 (en) * 2014-12-30 2016-06-30 Carlos Quiles Casas Image-guided surgery with surface reconstruction and augmented reality visualization

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1356413A2 (en) * 2000-10-05 2003-10-29 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization
US6891518B2 (en) * 2000-10-05 2005-05-10 Siemens Corporate Research, Inc. Augmented reality visualization device
WO2002062250A1 (de) * 2001-02-07 2002-08-15 Synthes Ag Chur Vorrichtung und verfahren für die intraoperative navigation
US6584339B2 (en) * 2001-06-27 2003-06-24 Vanderbilt University Method and apparatus for collecting and processing physical space data for use while performing image-guided surgery
US20050281465A1 (en) * 2004-02-04 2005-12-22 Joel Marquart Method and apparatus for computer assistance with total hip replacement procedure
US7774044B2 (en) * 2004-02-17 2010-08-10 Siemens Medical Solutions Usa, Inc. System and method for augmented reality navigation in a medical intervention procedure
GB0405792D0 (en) 2004-03-15 2004-04-21 Univ Catholique Louvain Augmented reality vision system and method
WO2006079211A1 (en) * 2005-01-26 2006-08-03 Orthosoft Inc. Computer-assisted hip joint resurfacing method and system
US20080013809A1 (en) * 2006-07-14 2008-01-17 Bracco Imaging, Spa Methods and apparatuses for registration in image guided surgery
US8020552B2 (en) * 2007-02-26 2011-09-20 Microtek Medical, Inc. Helmets and methods of making and using the same
US20080319491A1 (en) * 2007-06-19 2008-12-25 Ryan Schoenefeld Patient-matched surgical component and methods of use
US20140031668A1 (en) * 2010-09-08 2014-01-30 Disruptive Navigational Technologies, Llc Surgical and Medical Instrument Tracking Using a Depth-Sensing Device
KR101682891B1 (ko) * 2011-06-22 2016-12-06 신세스 게엠바하 위치설정을 위한 초음파 ct 등록
US8693730B2 (en) * 2011-11-15 2014-04-08 Macdonald Dettwiler & Associates Inc. Method of real-time tracking of moving/flexible surfaces
US9336592B2 (en) * 2012-02-03 2016-05-10 The Trustees Of Dartmouth College Method and apparatus for determining tumor shift during surgery using a stereo-optical three-dimensional surface-mapping system
US20140022283A1 (en) * 2012-07-20 2014-01-23 University Health Network Augmented reality apparatus
EP2953569B1 (en) * 2013-02-11 2022-08-17 Neomedz Sàrl Tracking apparatus for tracking an object with respect to a body
WO2014200017A1 (ja) * 2013-06-11 2014-12-18 Tanji Atsushi 骨切支援システム、情報処理装置、画像処理方法、および画像処理プログラム
WO2014200016A1 (ja) * 2013-06-11 2014-12-18 Tanji Atsushi 外科手術支援システム、外科手術支援装置、外科手術支援方法、外科手術支援プログラムおよび情報処理装置
WO2015023665A1 (en) * 2013-08-15 2015-02-19 Intuitive Surgical Operations, Inc. Graphical user interface for catheter positioning and insertion
AU2015274283B2 (en) 2014-06-14 2020-09-10 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US10013808B2 (en) * 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
US20160324580A1 (en) * 2015-03-23 2016-11-10 Justin Esterberg Systems and methods for assisted surgical navigation
US11432878B2 (en) * 2016-04-28 2022-09-06 Intellijoint Surgical Inc. Systems, methods and devices to scan 3D surfaces for intra-operative localization

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010500127A (ja) * 2006-08-08 2010-01-07 ヴァイアシス・ホールディングス・インコーポレーテッド 大容量空気供給システムを含む、外科手術用防護ヘッドギア組立品
US20130237811A1 (en) * 2012-03-07 2013-09-12 Speir Technologies Inc. Methods and systems for tracking and guiding sensors and instruments
JP2014120786A (ja) * 2012-12-13 2014-06-30 Seiko Epson Corp 頭部装着型表示装置および頭部装着型表示装置の制御方法
US20160191887A1 (en) * 2014-12-30 2016-06-30 Carlos Quiles Casas Image-guided surgery with surface reconstruction and augmented reality visualization

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021112312A1 (ko) * 2019-12-06 2021-06-10 서울대학교산학협력단 임플란트 수술을 위한 증강현실 도구 및 임플란트 수술정보 가시화 방법
KR102221898B1 (ko) * 2019-12-30 2021-03-03 주식회사 버넥트 가이드 도구 기반의 가상 객체 시각화 방법
CN113274128A (zh) * 2020-02-19 2021-08-20 格罗伯斯医疗有限公司 外科手术系统
JP2021129984A (ja) * 2020-02-19 2021-09-09 グローバス メディカル インコーポレイティッド 予定の器具アタッチメントの仮想モデルの表示により物理的器具アタッチメントの正しい選択を確実にする
US11690697B2 (en) 2020-02-19 2023-07-04 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
JP7547241B2 (ja) 2020-02-19 2024-09-09 グローバス メディカル インコーポレイティッド 予定の器具アタッチメントの仮想モデルの表示により物理的器具アタッチメントの正しい選択を確実にする

Also Published As

Publication number Publication date
AU2018316092A1 (en) 2020-03-12
US20180049622A1 (en) 2018-02-22
AU2018316092B2 (en) 2022-06-23
WO2019032143A1 (en) 2019-02-14
AU2022204673A1 (en) 2022-08-11
WO2018063528A1 (en) 2018-04-05
JP2024153759A (ja) 2024-10-29
EP4385446A3 (en) 2024-10-09
CN111031954B (zh) 2023-11-14
EP4385446A2 (en) 2024-06-19
EP3654867A1 (en) 2020-05-27
JP2022116157A (ja) 2022-08-09
CN117752414A (zh) 2024-03-26
CN111031954A (zh) 2020-04-17
EP3654867B1 (en) 2024-05-01

Similar Documents

Publication Publication Date Title
CN111031954B (zh) 用于医疗程序中的感觉增强系统和方法
US11071596B2 (en) Systems and methods for sensory augmentation in medical procedures
US10398514B2 (en) Systems and methods for sensory augmentation in medical procedures
US12127795B2 (en) Augmented reality display for spinal rod shaping and placement
US12035925B2 (en) Power tools or instruments with integrated haptic actuator for vibration reduction
US10973580B2 (en) Method and system for planning and performing arthroplasty procedures using motion-capture data
JP2020511239A (ja) ナビゲーション手術における拡張現実ディスプレイのためのシステム及び方法
JP2023513692A (ja) 医療処置における感覚拡張の為のシステム及び方法
US12053247B1 (en) System for multi-directional tracking of head mounted displays for real-time augmented reality guidance of surgical procedures

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220112

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220201

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20220518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220518