JP2016007277A - Surgery support device and surgery support system - Google Patents
Surgery support device and surgery support system Download PDFInfo
- Publication number
- JP2016007277A JP2016007277A JP2014128555A JP2014128555A JP2016007277A JP 2016007277 A JP2016007277 A JP 2016007277A JP 2014128555 A JP2014128555 A JP 2014128555A JP 2014128555 A JP2014128555 A JP 2014128555A JP 2016007277 A JP2016007277 A JP 2016007277A
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional
- acquisition unit
- moving image
- transformation matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Microscoopes, Condenser (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、手術支援装置および手術支援システムに関する。 The present invention relates to a surgery support apparatus and a surgery support system.
従来より、例えば脳神経外科手術において、術野を写す顕微鏡画像上に3次元のMRI(Magnetic Resonance Imaging;核磁気共鳴画像法)画像等の再構成画像の一部を投影し、重畳して提示する手術支援技術が提案されている。 Conventionally, for example, in neurosurgery, a part of a reconstructed image such as a three-dimensional MRI (Magnetic Resonance Imaging) image is projected on a microscopic image showing an operative field and presented in a superimposed manner. Surgery support technology has been proposed.
一般に、顕微鏡画像にMRI画像を重畳するためには、顕微鏡画像とMRI画像とに共通する被写体を用いてレジストレーション(Registration;位置合わせ)が必要となる。従来の手術支援技術においては、例えば顕微鏡の倍率情報をレジストレーションに利用しているため、そのような情報を出力可能な専用の装置を用いてレジストレーションが実現される。このような専用の装置は一般に高価であるため、既存の顕微鏡装置を用いて重畳表示を実現することができれば、より多くの医療現場に手術支援技術を導入することができる。 In general, in order to superimpose an MRI image on a microscope image, registration (Registration) is required using a subject common to the microscope image and the MRI image. In the conventional surgery support technology, for example, magnification information of a microscope is used for registration. For this reason, registration is realized using a dedicated device that can output such information. Since such a dedicated device is generally expensive, if a superimposed display can be realized using an existing microscope device, a surgical support technique can be introduced into more medical sites.
本発明は、このような課題に鑑みてなされたものであり、その目的は、2次元顕微鏡画像上に3次元の再構成画像を簡便に投影して重畳表示する技術を提供することにある。 The present invention has been made in view of such problems, and an object thereof is to provide a technique for easily projecting and superimposing a three-dimensional reconstructed image on a two-dimensional microscope image.
上記課題を解決するために、本発明のある態様の手術支援装置は、被術者の術部を含む領域の再構成画像を取得する医用画像取得部と、手術に用いられる術具の3次元的な位置座標を取得する3次元座標取得部と、再構成画像に設定された画像座標系の座標を、3次元座標取得部が位置座標計測に用いる座標系の座標に変換する第1変換行列を取得する第1変換行列取得部と、被術者の術野を撮影した2次元動画像を取得する動画取得部と、動画取得部が取得した動画像に設定された2次元座標系における術具の2次元的な位置座標を取得する画像解析部と、3次元座標取得部が取得した術具の3次元的な位置座標と、画像解析部が取得した術具の2次元的な位置座標とをもとに、3次元的な位置座標を2次元的な位置座標に変換する第2変換行列を推定する第2変換行列取得部と、第1変換行列と第2変換行列とを用いて、再構成画像の少なくとも一部を2次元動画像上に2次元画像として重畳する画像重畳部とを備える。画像解析部は、動画取得部が取得する動画像を解析して動画像の画角または視線方向の少なくとも一方が変更されたか否かを検出し、第2変換行列取得部は、画像解析部が画角または視線方向の少なくとも一方の変更を検出することを契機として、第2変換行列を推定する。 In order to solve the above-described problems, a surgery support apparatus according to an aspect of the present invention includes a medical image acquisition unit that acquires a reconstructed image of a region including a surgical part of a subject, and a three-dimensional surgical tool used for surgery. A three-dimensional coordinate acquisition unit that acquires typical position coordinates, and a first conversion matrix that converts coordinates of the image coordinate system set in the reconstructed image into coordinates of a coordinate system used for position coordinate measurement by the three-dimensional coordinate acquisition unit A first transformation matrix acquisition unit that acquires the image, a moving image acquisition unit that acquires a two-dimensional moving image obtained by imaging the surgical field of the subject, and a technique in the two-dimensional coordinate system set for the moving image acquired by the moving image acquisition unit An image analysis unit that acquires the two-dimensional position coordinates of the tool, a three-dimensional position coordinate of the surgical tool acquired by the three-dimensional coordinate acquisition unit, and a two-dimensional position coordinate of the surgical tool acquired by the image analysis unit Based on the above, the second variation that converts 3D position coordinates to 2D position coordinates A second transformation matrix obtaining unit that estimates a matrix, an image superimposing unit that superimposes at least a part of the reconstructed image on the two-dimensional moving image as a two-dimensional image using the first transformation matrix and the second transformation matrix; Is provided. The image analysis unit analyzes the moving image acquired by the moving image acquisition unit to detect whether at least one of the angle of view or the line-of-sight direction of the moving image has been changed. The second conversion matrix acquisition unit The second transformation matrix is estimated by detecting at least one change in the angle of view or the line-of-sight direction.
本発明の別の態様は、手術支援システムである。この手術支援システムは、手術に用いられる術具の3次元的な位置座標を計測する3次元計測装置と、被術者の術野を撮影して2次元動画像を生成する顕微鏡と、情報処理装置とを備える。情報処理装置は、被術者の術部を含む領域の再構成画像を取得する医用画像取得部と、3次元計測装置が計測した3次元的な位置座標を取得する3次元計測部と、顕微鏡が生成した動画像を取得する動画取得部と、再構成画像に設定された画像座標系の座標を、3次元計測部が位置座標計測に用いる座標系の座標に変換する第1変換行列を取得する第1変換行列取得部と、顕微鏡が生成する動画像に設定された2次元座標系における術具の2次元的な位置座標を取得する画像解析部と、3次元計測部が取得した術具の3次元的な位置座標と、画像解析部が取得した術具の2次元的な位置座標とをもとに、3次元的な位置座標を2次元的な位置座標に変換する第2変換行列を推定する第2変換行列取得部と、第1変換行列と第2変換行列とを用いて、再構成画像の少なくとも一部を2次元動画像上に2次元画像として重畳する画像重畳部とを備える。画像解析部は、動画取得部が撮影する動画像を解析して動画取得部の画角または視線方向の少なくとも一方が変更されたか否かを検出し、第2変換行列取得部は、画像解析部が画角または視線方向の少なくとも一方の変更を検出することを契機として、第2変換行列を推定する。 Another aspect of the present invention is a surgery support system. The surgical operation support system includes a three-dimensional measurement device that measures three-dimensional position coordinates of a surgical instrument used for surgery, a microscope that captures a surgical field of a subject and generates a two-dimensional moving image, and information processing Device. An information processing apparatus includes a medical image acquisition unit that acquires a reconstructed image of a region including a surgical part of a subject, a three-dimensional measurement unit that acquires three-dimensional position coordinates measured by the three-dimensional measurement device, and a microscope Acquires a moving image acquisition unit that acquires a moving image generated by the image processing unit, and a first conversion matrix that converts the coordinates of the image coordinate system set in the reconstructed image into coordinates of a coordinate system used for position coordinate measurement by the three-dimensional measurement unit A first transformation matrix acquisition unit, an image analysis unit for acquiring a two-dimensional position coordinate of the surgical tool in a two-dimensional coordinate system set in a moving image generated by the microscope, and a surgical tool acquired by the three-dimensional measurement unit And a second conversion matrix for converting the three-dimensional position coordinates into the two-dimensional position coordinates based on the three-dimensional position coordinates of the tool and the two-dimensional position coordinates of the surgical instrument acquired by the image analysis unit. The second transformation matrix acquisition unit for estimating the first transformation matrix and the second transformation matrix Te, and an image superimposing unit that superimposes a two-dimensional image at least a portion of the reconstructed image on a 2D video. The image analysis unit analyzes the moving image captured by the moving image acquisition unit to detect whether at least one of the angle of view or the line-of-sight direction of the moving image acquisition unit has been changed, and the second conversion matrix acquisition unit The second transformation matrix is estimated by detecting a change in at least one of the angle of view or the line-of-sight direction.
本発明によれば、2次元顕微鏡画像上に3次元医用画像を簡便に投影して重畳表示することができる。 According to the present invention, a three-dimensional medical image can be easily projected and superimposed on a two-dimensional microscope image.
インテリジェント手術室での手術ナビゲーションシステムにより、高精度な手術が可能となり脳腫瘍摘出率向上および五年後生存率が向上した。しかし、脳の悪性腫瘍に対しては完全な腫瘍摘出は難しく、五年後生存率は未だ低い。これは、悪性腫瘍は脳の正常な部位との境界が肉眼ではわかりにくく、そして、傷つけてはならない神経・血管などが複雑に絡み合っているためである。このため、さらなる工学的支援が必要とされている。 Surgical navigation system in the intelligent operating room enables high-precision surgery, improving the removal rate of brain tumors and improving the survival rate after 5 years. However, complete tumor removal is difficult for malignant tumors of the brain, and the survival rate after 5 years is still low. This is because malignant tumors are difficult to see with the naked eye at the boundary with the normal part of the brain, and nerves and blood vessels that should not be damaged are intertwined in a complex manner. For this reason, further engineering support is needed.
直感的な位置情報を提示可能な顕微鏡重畳表示ナビゲーションシステムが報告されている[1][2]。これは、顕微鏡内のカメラに患者のMRI画像を重畳表示することで術者に腫瘍・神経・血管などの位置情報を直感的に提示可能としたシステムである。しかしながら、重畳表示するために事前に顕微鏡カメラに対し、カメラ較正器を用いてカメラキャリブレーションを行う必要あり、全ての倍率に対応していないため全倍率で高精度に重畳表示ができない。また、顕微鏡は倍率を逐一出力することが可能であること、そして、顕微鏡の位置・姿勢を知るためにマーカ付きの専用の顕微鏡である必要があることが問題となる。 A microscope superimposed display navigation system capable of presenting intuitive position information has been reported [1] [2] . This is a system that allows an operator to intuitively present position information such as a tumor, a nerve, and a blood vessel to a surgeon by superimposing and displaying an MRI image of a patient on a camera in a microscope. However, it is necessary to perform camera calibration on the microscope camera in advance using a camera calibrator in order to perform superimposition display, and since it does not support all magnifications, superimposition display cannot be performed with high accuracy at all magnifications. In addition, there is a problem that the microscope can output the magnification one by one and that it is necessary to be a dedicated microscope with a marker in order to know the position and orientation of the microscope.
本発明実施の形態に係る手術支援システムは、手術中にナビゲーションシステムから得られる術具位置情報を用いてカメラキャリブレーションをリアルタイムで実現する。これのため、本発明に係る手術支援システムは、事前にカメラ較正器具によるカメラキャリブレーションの必要がなく、リアルタイムに倍率、位置・姿勢情報が得られるため、専用の顕微鏡ではなくとも使用可能となる。 The surgery support system according to the embodiment of the present invention realizes camera calibration in real time using surgical instrument position information obtained from a navigation system during surgery. For this reason, the surgery support system according to the present invention does not require camera calibration with a camera calibration tool in advance, and magnification and position / posture information can be obtained in real time, so that it can be used without using a dedicated microscope. .
以下、本発明の実施の形態に係る手術支援システムについて、添付図面を参照しながらより詳細に説明する。 Hereinafter, a surgery support system according to an embodiment of the present invention will be described in more detail with reference to the accompanying drawings.
図1は、本発明の実施の形態に係る手術支援システム100の全体構成を模式的に示す図である。実施の形態に係る手術支援システム100は、手術用顕微鏡200、3次元計測装置300、および手術支援装置400を含む。
FIG. 1 is a diagram schematically showing the overall configuration of a
手術用顕微鏡200は、被術者1の術部を含む領域の動画像を拡大して表示する。以下本明細書において、「被術者の術部を含む領域の映像」を単に「術野」と記載する。すなわち、手術用顕微鏡200による顕微鏡映像は、術野を拡大して表示した動画像である。執刀医2は、手術用顕微鏡200が提示する拡大された術野を参照しながら執刀する。このため、手術用顕微鏡200からみた術野には、執刀医2が所持する術具3または少なくともその一部も含まれる。
The
手術用顕微鏡200は顕微鏡アーム4を備えている。このため、執刀医2は被術者1の術部に対する手術用顕微鏡200の相対的な位置を変更することができる。また手術用顕微鏡200は、術野の拡大率を変更して提示することもできる。
The
手術用顕微鏡200は、術野を液晶等の表示デバイスに表示して執刀医2に提示する。手術用顕微鏡200は動画像の入出力端子(不図示)を備えており、術野の動画像を外部の装置に出力したり、外部から入力された動画像を表示デバイスに表示したりすることができる。手術用顕微鏡200は、このような表示デバイスおよび入出力端子を備えているのであれば、一般的な手術用顕微鏡であってもよい。
The
3次元計測装置300は、被写体の3次元的な位置座標を特定する。より具体的には、3次元計測装置300は、自身を基準に定められた3次元座標系における観察対象の位置座標を決定する。
The three-
実施の形態に係る手術支援システム100において、3次元計測装置300は被術者1の術部の位置座標と、執刀医2が所持する術具3の位置座標とを計測する。3次元計測装置300は、例えば両眼カメラを用いたステレオ方式による3次元計測等、既知の計測技術を用いて実現できる。
In the
限定はしないが、3次元計測装置300が撮像する術具3は、術具3の位置の計測の基準となるマーカを備えていてもよい。このマーカは、3次元計測装置300が術具3の位置を計測するために用いられるマーカである。この場合、3次元計測装置300は術具3に備えられた計測用のマーカを基準として、術具3の位置を検出する。なお、3次元計測装置300は、術具3の先端の位置座標も取得する。
Although not limited, the
手術支援装置400は、執刀前にあらかじめ作成された、被術者1の術部を含む3次元領域の再構成画像とアクセスすることができる。限定はしないが、再構成画像とは、例えば術部のMRI画像や、CT(Computed Tomography)画像である。これらの再構成画像は3次元画像データであり、いわゆるボクセル(Voxel)で構成されている。
The
詳細は後述するが、手術支援装置400は、手術用顕微鏡200の術野に、再構成画像の少なくとも一部を重畳させるために、手術用顕微鏡200の顕微鏡映像と、3次元再構成画像とのレジストレーションを実行する。これにより、手術支援装置400は、再構成画像から抽出された病変部や被術者1の血管等が術野に重畳して表示されるようにして映像を生成し、執刀医2に提示する。このように、手術支援装置400は、いわゆる「手術用のナビゲーションシステム」を実現する。なお、手術用のナビゲーションシステムは、執刀医2に対して術部、術具3、病変部や血管等の位置関係を参考情報として提示することを目的としており、実際の執刀は執刀医2の判断の下で行われる。
Although details will be described later, the surgical
以下、実施の形態に係る手術支援装置400が実行するレジストレーション処理の原理を説明する。
Hereinafter, the principle of the registration process executed by the
図2は、実施の形態に係る手術支援システム100で用いる複数の座標系と、座標系間の変換行列とを模式的に示す図である。手術支援システム100が扱う座標系は、ワールド座標系CW、動画座標系CM、カメラ座標系CC、および画像座標系CIを含む。
FIG. 2 is a diagram schematically illustrating a plurality of coordinate systems used in the
ワールド座標系CWは、3次元計測装置300を基準にして定められた座標系であり、物体の実空間における位置座標を規定する座標系である。ワールド座標系CWはどのように設定してもよいが、例えば3次元計測装置300が両眼カメラである場合には、2つのカメラの中点を原点とする3次元直交座標系を設定する。より具体的には、カメラの視線方向をZ軸、2つのカメラを結ぶ方向をX軸、Z軸とX軸とに垂直な方向をY軸とする右手座標系を設定する。
The world coordinate system CW is a coordinate system defined with reference to the three-
画像座標系CIは、再構成画像に設定された座標系である。上述したように、再構成画像はボクセルで表される3次元データであり、再構成画像に固有の画像座標系CIを持つ。実施の形態に係る手術支援装置400で用いる再構成画像には、あらかじめ複数の特徴点が設定されている。限定はしない例として、術部が被術者1の頭部であり再構成画像が被術者1の頭部全体を含む場合には、頭頂部や顎の先端、鼻や口の位置等が特徴点として設定されている。また、設定された各特徴点の画像座標系における位置座標も、再構成画像と紐付けて格納されている。これらの特徴点は、人の手によって設定してもよいし、既知の画像認識技術を用いて自動で設定してもよい。
Image coordinate system C I is a coordinate system set in the reconstructed image. As described above, the reconstructed image is three-dimensional data represented by voxels in the reconstructed image with a unique image coordinate system C I. A plurality of feature points are set in advance in the reconstructed image used in the
カメラ座標系CCは、手術用顕微鏡200を基準にして定められた座標系である。カメラ座標系CCは、ワールド座標系CWと同様に、物体の実空間における位置座標を規定する右手座標系である。また動画座標系CMは、手術用顕微鏡200が生成する術野の動画像に設定された2次元座標系である。
Camera coordinate system C C is a coordinate system defined on the basis of the
行列Qは、画像座標系CIにおける座標を、ワールド座標系CWにおける座標に変換する行列である。以下、行列Qについてより詳細に説明する。 Matrix Q is the coordinate in the image coordinate system C I, is a matrix for converting the coordinates in the world coordinate system C W. Hereinafter, the matrix Q will be described in more detail.
再構成画像上に設定されたある特徴点Fの画像座標系CIにおける位置座標を(x,y,z)Tとする。ここで記号「T」は、ベクトルまたは行列の転置を表す。また、特徴点Fに対応する実空間上の点の、ワールド座標系CWにおける位置座標を(X,Y,Z)Tとする。例えば、特徴点Fが被術者1の頭頂部を示す場合、(x,y,z)Tは再構成画像における頭頂部の位置座標であり、(X,Y,Z)Tは被術者1の頭頂部の実空間における位置座標である。 The position coordinates in the image coordinate system C I of a feature point F, which is set on the reconstructed image and (x, y, z) T . Here, the symbol “T” represents transposition of a vector or a matrix. Further, the position coordinate in the world coordinate system CW of the point on the real space corresponding to the feature point F is (X, Y, Z) T. For example, when the feature point F indicates the top of the subject 1, (x, y, z) T is the position coordinate of the top of the reconstructed image, and (X, Y, Z) T is the subject. It is a position coordinate in real space of the top of 1 head.
以下本明細書において、位置座標を既知の斉次座標を用いて表す。すなわち、画像座標系CIにおける特徴点Fの位置座標(x,y,z)Tを、4つの実数の組(x1,x2,x3,x4)Tで表す。ここで、
x=x1/x4, y=x2/x4, z=x3/x4 (1)
である。同様に、ワールド座標系CWにおける特徴点Fの位置座標を、4つの実数の組(X1,X2,X3,X4)Tで表す。ここで、
X=X1/X4, Y=X2/X4, Z=X3/X4 (2)
である。
Hereinafter, in this specification, position coordinates are expressed using known homogeneous coordinates. That is, the position coordinates of the feature point F in the image coordinate system C I (x, y, z ) and T, represented by four
x = x 1 / x 4, y = x 2 /
It is. Similarly, the position coordinate of the feature point F in the world coordinate system CW is represented by a set of four real numbers (X 1 , X 2 , X 3 , X 4 ) T. here,
X = X 1 / X 4, Y =
It is.
再構成画像は、被術者1の術部の3次元データであるから、特徴点Fの画像座標系CIにおける位置座標は、回転、並進、および拡大/縮小を適宜施すことにより、ワールド座標系CWにおける位置座標に変換できる。ワールド座標系CWにおける特徴点Fの斉次座標は、画像座標系CIにおける特徴点Fの斉次座標と4×4の行列Qを用いて、
ここで行列Qは、
式(4)より、行列Qは12個の未知数を持つ。したがって、少なくとも4つの特徴点について画像座標系CIの位置座標とワールド座標系CWの位置座標との組み合わせが既知であれば、行列Qを推定することができる。以下本明細書において、行列Qを「第1変換行列」と記載する。 From equation (4), the matrix Q has 12 unknowns. Therefore, if the combination of the position coordinates of the position coordinates and the world coordinate system C W of the image coordinate system C I for at least four feature points are known, it is possible to estimate the matrix Q. Hereinafter, in the present specification, the matrix Q is referred to as a “first transformation matrix”.
手術用顕微鏡200は、実空間に存在する術部の映像を動画像202上に投影する。以下、図3を参照して、カメラ座標系Ccの座標を動画座標系CMの座標に変換する行列APについて説明する。
The
図3は、ピンホールカメラモデルに基づく透視投影を模式的に示す図である。図3において、カメラ座標系CCの原点は、仮想的なピンホールカメラの光学中心Cに設定されている。カメラ座標系CCのZ軸は仮想的なピンホールカメラの光軸と一致しており、動画像202の画像面は、光学中心Cからf離れた位置においてZ軸と垂直に交わっている。
FIG. 3 is a diagram schematically showing perspective projection based on a pinhole camera model. 3, the origin of the camera coordinate system C C is set at the optical center C of the virtual pinhole camera. Z-axis of the camera coordinate system C C image plane of the virtual pinhole camera coincides with the optical axis, the moving
図3に示すように、カメラ座標系CCの位置座標(X,Y,Z)Tに位置する点Qは、動画像202の画像面における点qに投影される。点qは、点Qと光学中心Cとを結ぶ線分QCと、動画像202の画像面との交点である。点qの動画座標系CMにおける位置座標を(x,y)Tとすると、以下の式(5)が成立する。
As shown in FIG. 3, the position coordinates of the camera coordinate system C C (X, Y, Z ) Q point situated T is projected to a point q in an image plane of the moving
点Qの斉次座標を(Y1,Y2,Y3,Y4)T、点qの斉次座標を(x1,x2,x3)Tとすると、ωを任意の実数として、式(5)は以下の式(6)で表せる。
ところで、ベクトル(x,y)Tは動画像202の画像面における点qの位置座標を表すが、手術用顕微鏡200は、実際には、点qにおける映像を離散的な画素(pixel)として記録する。いま、点qに対応する画素の座標を(u,v)Tとする。このとき、ベクトル(x,y)Tからベクトル(u,v)Tへの変換は、原点位置合わせのための並進、縦横のスケール変換、および手術用顕微鏡200のレンズの焦点距離に応じたスケール変換を組み合わせたものとなる。
Incidentally, the vector (x, y) T represents the position coordinates of the point q on the image plane of the moving
ベクトル(u,v)Tの斉次座標を(m1,m2,m3)Tとする。すなわち、u=m1/m3、v=m2/m3である。また、動画像202の画像中心の座標を(u0,v0)、焦点距離をf、uおよびv方向のスケールファクタをそれぞれku、kvとすると、(m1,m2,m3)Tと(x1,x2,x3)Tとの関係は以下の式(7)で表せる。
式(6)と式(7)より、以下の式(8)を得る。
続いて、図4を参照して行列Mについて説明する。 Next, the matrix M will be described with reference to FIG.
図4は、ワールド座標系CWとカメラ座標系CCとの関係を模式的に示す図である。上述したように、手術用顕微鏡200は顕微鏡アーム4を備えている。このため、手術用顕微鏡200は3次元計測装置300に対して相対的な位置関係が変化しうる。
Figure 4 is a diagram schematically showing the relationship between the world coordinate system C W and the camera coordinate system C C. As described above, the
図4において、ワールド座標系CWから第1カメラ座標系CCへの座標変換は、3次元の回転Rおよび3次元の並進Tによって変換される。同様に、ワールド座標系CWから第2カメラ座標系CC’への座標変換は、3次元の回転R’および3次元の並進T’によって変換される。 4, the coordinate transformation from the world coordinate system C W to the first camera coordinate system C C is converted by the three-dimensional rotation R and 3-dimensional translation T. Similarly, the coordinate transformation from the world coordinate system CW to the second camera coordinate system C C ′ is transformed by a three-dimensional rotation R ′ and a three-dimensional translation T ′.
いま、カメラ座標系CCにおける点Qの斉次座標を(Y1,Y2,Y3,Y4)T、ワールド座標系CWにおける点Qの斉次座標を(X1,X2,X3,X4)Tとする。このとき、ワールド座標系CWからカメラ座標系CCへの座標変換は、4×4の行列Mを用いて、以下の式(9)で表すことができる。
式(8)、式(9)、および式(10)から、ワールド座標系CWにおける斉次座標(X1,X2,X3,X4)Tを、動画像202の画像面を構成する画素の斉次座標(m1,m2,m3)Tに変換する式は、以下の式(11)となる。
式(11)において、行列PP=APMは3×4の行列である。そこで、行列PPの要素は以下の式(12)であるとする。
式(11)に式(12)を代入すると、以下の式(13)、式(14)、および式(15)を得る。
ωm1=p11X1+p12X2+P13X3+P14X4 (13)
ωm2=p21X1+p22X2+P23X3+P24X4 (14)
ωm3=p31X1+p32X2+P33X3+P34X4 (15)
Substituting equation (12) into equation (11) yields the following equations (13), (14), and (15).
ωm 1 = p 11 X 1 + p 12 X 2 + P 13 X 3 + P 14 X 4 (13)
ωm 2 = p 21 X 1 + p 22 X 2 + P 23 X 3 + P 24 X 4 (14)
ωm 3 = p 31 X 1 + p 32 X 2 + P 33 X 3 + P 34 X 4 (15)
式(13)、式(15)、および斉次座標の定義より、以下の式(16)を得る。
式(16)および式(17)から、以下の式(18)を得る。
式(18)において、行列Dの成分はワールド座標系CWにおける斉次座標と、それに対応する画素の座標であるため、観測可能である。いま、ある12×1のベクトルpを考えたとき、
Dp=e (20)
であるとする。ここでeは、(e1,e2)Tとなる2×1のベクトルである。式(20)において、eの2ノルムが最小となるベクトルpが求まれば、誤差の2ノルムを最小化するという観点における行列PPの最適解である最小二乗誤差解が得られる。この最小二乗誤差解をPoptとすると、Poptは以下の式(21)で表される。
Dp = e (20)
Suppose that Here, e is a 2 × 1 vector that becomes (e 1 , e 2 ) T. In the formula (20), if Motomare the
式(21)は、p=0という自明解を持つから、pの2ノルムが正の値を持つという拘束条件を加えて、ラグランジュの未定乗数法を用いると以下の式(22)を得る。
式(21)中のpTDTDp+λ(1−pTp)をCとおいたとき、Cが極値となるpが、求める解である。Cをpについて微分すると、以下の式(23)を得る。
式(23)は、ベクトルpが行列DTDの固有ベクトルのとき成立する。故に、行列DTDの固有ベクトルを求めることで、ワールド座標系CWにおける斉次座標を動画像202の画像面を構成する画素の斉次座標に変換する行列PPの推定値を得ることができる。以下本明細書において、行列PPを「第2変換行列」と記載する。なお、行列の固有ベクトルを求めるための種々のソルバが存在し利用可能である。これらのソルバを利用することにより、行列DTDの固有ベクトルは、手術に要する時間と比較して十分に短い時間内で計算することができる。ゆえに、手術用顕微鏡200の画角または視線方向(撮影方向)の少なくとも一方が変更されたとしても、手術中にリアルタイムで行列PPの推定値を計算し直すことができる。
Equation (23) holds when the vector p is an eigenvector of the matrix D T D. Thus, by obtaining an eigenvector of the matrix D T D, to obtain an estimate of the matrix P P of converting the homogeneous coordinates in the world coordinate system C W in homogeneous coordinates of pixels constituting the image plane of the moving
なお、式(20)は、ワールド座標系CWにおける1点の斉次座標とその点に対応する動画上の画素の座標との関係を示しているため、行列Dのサイズは2×12となっている。複数の点についてワールド座標系CWにおける斉次座標とそれに対応する動画上の画素の座標が既知の場合には、それらの座標を用いて行列Dを構成することができる。例えば、N点(Nは自然数)についてワールド座標系CWにおける斉次座標とそれに対応する動画上の画素の座標が既知の場合には、行列Dのサイズは2N×12となる。対応する点の数が多いほど、精度の高い行列PPの推定値を得られる可能性が高まる。 Since the equation (20) shows the relationship between the homogeneous coordinates of one point in the world coordinate system CW and the coordinates of the pixel on the moving image corresponding to the point, the size of the matrix D is 2 × 12. It has become. When the homogeneous coordinates in the world coordinate system CW and the coordinates of the corresponding pixels on the moving image are known for a plurality of points, the matrix D can be constructed using these coordinates. For example, when the homogeneous coordinates in the world coordinate system CW and the coordinates of the corresponding pixels on the moving image are known for N points (N is a natural number), the size of the matrix D is 2N × 12. The more the number of the corresponding points, are more likely to obtain an estimate of the precise matrix P P.
上述したように、行列Dの成分はワールド座標系CWにおける斉次座標と、それに対応する画素の座標である。例えば執刀医2が手術用顕微鏡200を動かしたり、レンズの倍率を変更したりした場合、内部パラメータ行列Aが変更される。結果として、第2変換行列PPも変更される。このような場合、例えばワールド座標系CWにおける術具3の位置座標と、それに対応する画座標系CMにおける位置座標とが取得して式(23)における行列Dをまず構成する。続いて、行列DTDの固有ベクトルを求めることで、手術中であってもリアルタイムに第2変換行列PPを推定し直すことができる。
As described above, the components of the matrix D are the homogeneous coordinates in the world coordinate system CW and the coordinates of the corresponding pixels. For example, when the
式(3)と式(11)より、再構成画像に設定された画像座標系CIにおける斉次座標x1,x2,x3,x4)Tを、動画像202の画像面を構成する画素の斉次座標(m1,m2,m3)Tに変換する式は、以下の式(24)で表される。
式(24)は、第1変換行列Qと、第2変換行列PPとを用いることで、再構成画像を手術用顕微鏡200が生成する動画像に対応づけること、すなわち再構成画像を動画像にレジストレーションすることができることを示している。したがって、式(24)を用いることにより、手術用顕微鏡200が示す術野に対して、再構成画像の一部(例えば、病変部や、血管、神経等)を重畳することが可能となる。なお、手術用顕微鏡200が示す術野に重畳する再構成画像の一部は、あらかじめ手動または画像認識技術を用いて特定しておけばよい。
Equation (24), a first transformation matrix Q, by using a second transformation matrix P P, be associated to the moving image a reconstructed image
以上、実施の形態に係る手術支援装置400が実行するレジストレーション処理の原理について説明した。続いて、実施の形態に係る手術支援装置400の機能構成および動作について説明する。
The principle of the registration process executed by the
図5は、実施の形態に係る手術支援装置400の機能構成を模式的に示す図である。手術支援装置400は、医用画像取得部402、第1変換行列取得部404、3次元座標取得部406、画像重畳部408、動画取得部410、画像解析部412、および第2変換行列取得部414を備える。限定はしない例として、手術支援装置400は、PC(Personal Computer)、PACS(Picture Archiving and Communication System)を構成する計算機、ワークステーションの他、タブレットやスマートフォン等を用いて実現できる。
FIG. 5 is a diagram schematically illustrating a functional configuration of the
図5は、実施の形態に係る手術支援装置400を実現するための機能構成を示しており、その他の構成は省略している。図5において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、手術支援装置400のCPU(Central Processing Unit)、メインメモリ、その他のLSI(Large Scale Integration)で構成することができる。またソフトウェア的には、メインメモリにロードされたプログラム等によって実現される。したがってこれらの機能ブロックが、いろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
FIG. 5 shows a functional configuration for realizing the
医用画像取得部402は、被術者の手術部を含む領域の3次元の再構成画像を取得する。図示はしないが、医用画像取得部402は、手術支援装置400が設置された施設内等のネットワークと接続しており、当該ネットワークを介して再構成画像を取得する。
The medical
3次元座標取得部406は、手術に用いられる術具3の3次元的な位置座標を、3次元計測装置300から取得する。より具体的には、3次元座標取得部406は3次元計測装置300と有線接続されており、術具3の位置座標を有線で取得する。3次元座標取得部406が取得する座標は、ワールド座標系CWにおける術具3の位置座標である。なお、3次元座標取得部406と3次元計測装置300とが有線または無線ネットワークを介して接続されている場合には、ネットワークを介して術具3の位置座標を取得してもよい。
The three-dimensional coordinate
第1変換行列取得部404は、再構成画像に設定された画像座標系CMの座標を3次元座標取得部406が位置座標計測に用いるワールド座標系CWの座標に変換するための第1変換行列Qを取得する。第1変換行列Qは、上記式(3)および式(4)を用いてあらかじめ推定されて手術支援装置400内の図示しない記憶部に格納されている。第1変換行列取得部404は、手術支援装置400内の記憶部を参照して、第1変換行列Qを取得する。あるいは、第1変換行列取得部404は、あらかじめ再構成画像に設定されている特徴点の位置座標を用いて、第1変換行列Qを推定して取得してもよい。
First transformation
動画取得部410は、被術者1の術野を撮影した2次元の動画像202を取得する。ここで動画取得部410が取得する動画像は、手術用顕微鏡200が生成して出力した動画像である。画像解析部412は、動画取得部410が取得した動画像202に設定された2次元座標系である動画座標系CMにおける、術具3の2次元的な位置座標を取得する。なお、画像解析部412の詳細は後述する。
The moving
第2変換行列取得部414は、2変換行列PPを推定して取得する。より具体的には、第2変換行列取得部414は、3次元座標取得部406が取得した術具3の3次元的な位置座標と、画像解析部412が取得した術具3の2次元的な位置座標とをもとに、式(18)における行列Dを構成し、式(23)を満たすベクトルpを求めることで、第2変換行列PPを推定する。
The second transformation
画像重畳部408は、第1変換行列Qと第2変換行列PPとを用いて、式(24)にしたがって、再構成画像の少なくとも一部を術野の動画像202上に2次元画像として重畳する。画像重畳部408は、再構成画像の一部を重畳した動画像202を、手術用顕微鏡200に出力する。これにより、手術用顕微鏡200を用いて被術者1の術部を観察する執刀医2は、術野に再構成画像の一部が重畳された映像を観察することができる。
ここで、執刀医2が例えば被術者1の術部に対する手術用顕微鏡200の相対的な位置を変更したり、手術用顕微鏡200のレンズの倍率を変更(すなわち、焦点距離を変更)したりしたとする。この変更に伴って第2変換行列PPも変更されるため、第2変換行列取得部414は、第2変換行列PPを推定し直すことが好ましい。
Here, for example, the
そこで画像解析部412は、動画取得部410が手術用顕微鏡200から取得する動画像202を解析して、動画像202の画角または視線方向の少なくとも一方が変更されたか否かを検出する。第2変換行列取得部414は、画像解析部412が画角または視線方向の少なくとも一方の変更を検出することを契機として、第2変換行列PPを推定する。手術用顕微鏡200の相対的な位置が変更されたり、手術用顕微鏡200のレンズの倍率が変更されたりすると、動画像202の画角または視線方向も変わる。したがって、画像解析部412が動画像202の画角または視線方向の少なくとも一方の変更を検出することを契機として第2変換行列取得部414が第2変換行列PPを推定することにより、再構成画像と動画像202との適切なレジストレーションを維持することができる。
Therefore, the
図6は、実施の形態に係る画像解析部412の機能構成を模式的に示す図である。画像解析部412は、術具特定部420、背景領域特定部422、差分画像取得部424、および差分画像解析部426を備える。
FIG. 6 is a diagram schematically illustrating a functional configuration of the
術具特定部420は、手術用顕微鏡200から取得した動画像202に写っている術具3を検出する。より具体的に、術具特定部420は、手術用顕微鏡200から取得した動画像202を解析することで、術具3の先端の位置座標を、動画像202を構成する画素の座標として取得する。これは例えば既知のHough変換[3]とSURF[4]などの画像処理を用いて、以下の手順により実現できる。
The surgical
最初に、術具特定部420は、取得した動画像202に直線検出に用いられるHough変換をかけることにより術具3を認識させ、Hough変換をもとにROI(Region Of Interest)より、術具3付近の範囲指定を行う。続いて術具特定部420は、ROIの範囲にSURFをかけ術具3の特徴点を抽出し、抽出した特徴点の水平方向の最小点を術具3の先端位置として検出する。術具特定部420は、取得した動画像202のフレーム毎、あるいは所定の間引きをしたフレーム毎に術具3の先端位置を検出し、検出結果を第2変換行列取得部414に出力する。
First, the surgical
背景領域特定部422は、動画像202のフレーム毎に背景領域を特定する。ここで「背景領域」とは、動画像202において術具3以外が写っている領域である。一般に、手術用顕微鏡200の位置や倍率が固定されていても、手術中であれば術具3の位置は変化する。しかしながら、手術用顕微鏡200の位置や倍率が固定されている場合には、背景領域は変化が少ないと考えられる。したがって、背景領域が変化するか否かは、手術用顕微鏡200の位置や倍率が変更されたか否かの指標となり得る。
The background
そこで差分画像取得部424は、背景領域特定部422が特定した異なるフレーム間の背景画像の差分画像を取得する。差分画像解析部426は、差分画像取得部424が取得して差分画像を解析して、動画像202の画角または視線方向の少なくとも一方が変更されたか否かを検出する。具体例としては、差分画像解析部426は、各フレームのペア毎に差分画像の画素値の2乗または絶対値の総和を生成する。差分画像解析部426は生成した総和を監視し、総和が所定量変化した場合に、動画像の画角または視線方向の少なくとも一方が変更されたと推定する。
Therefore, the difference
ここで「所定量」とは、総和の計算方法、差分画像解析部426が動画像202の画角または視線方向の変更の推定に用いるための基準閾値である。所定量の具体的な値は、動画像202の画素数や術具3の形状および大きさ、想定される手術の種類等を考慮して、実験により定めればよい。
Here, the “predetermined amount” is a calculation method of the sum, and a reference threshold used by the difference
図7は、実施の形態に係る手術支援方法の流れを説明するフローチャートである。本フローチャートにおける処理は、例えば手術支援装置400が起動したときに開始する。
FIG. 7 is a flowchart for explaining the flow of the surgery support method according to the embodiment. The process in this flowchart starts when the
医用画像取得部402は、被術者1の手術部を含む領域に係る3次元の再構成画像を取得する(S2)。第1変換行列取得部404は、画像座標系CMの座標をワールド座標系CWの座標に変換する第1変換行列Qを取得する(S4)。
The medical
3次元座標取得部406は、手術に用いられる術具3の3次元的な位置座標を取得する(S6)。動画取得部410は、被術者1の術野を撮影した2次元の動画像202を取得する(S8)。
The three-dimensional coordinate
画像解析部412中の術具特定部420は、手術用顕微鏡200から取得した動画像202を解析し、術具3の先端の位置座標を、2次元の位置座標として取得する(S10)。第2変換行列取得部414は、術具3のワールド座標系CWにおける位置座標と、術具3の動画座標系CMの位置座標とをもとに、ワールド座標系CWにおける3次元的な位置座標を、動画座標系CMにおける位置座標に変換する第2変換行列PPを取得する(S12)。
The surgical
画像重畳部408は、第1変換行列Qと第2変換行列PPとをもとに、再構成画像を動画像202に重畳し、手術用顕微鏡200に表示させる(S14)。画像解析部412は、手術用顕微鏡200の画角または視線方向の少なくとも一方が変更されたか否かを検出するために、手術用顕微鏡200から取得した動画像202を解析する(S16)。
動画像202の画角または視線方向の少なくとも一方が変更されたことを画像解析部412が検出すると(S18のY)、ステップS16の処理に戻ってステップ6からステップ16に至るまでの処理が実行される。動画像202の画角と視線方向とが変更されない場合(S18のN)、手術が終了しない間は(S20のN)、ステップS14からステップS18までの処理が繰り返される。
When the
手術が終了すると(S20のY)、本フローチャートにおける処理は終了する。 When the surgery is finished (Y in S20), the processing in this flowchart is finished.
図8は、実施の形態に係る動画像解析処理の流れを説明するフローチャートであり、図7におけるステップS16の処理の流れをより詳細に説明する図である。 FIG. 8 is a flowchart for explaining the flow of the moving image analysis process according to the embodiment, and is a view for explaining the flow of the process of step S16 in FIG. 7 in more detail.
背景領域特定部422は、取得した動画像202のフレーム毎に、背景領域を特定する(S22)。差分画像取得部424は、異なる二つのフレームをペアとして、それらの背景領域の差分画像を取得する(S24)。
The background
差分画像解析部426は、差分画像取得部424が取得した差分画像を解析して、手術用顕微鏡200の画角または視線方向の少なくとも一方が変更されたか否かを検出する(S28)。差分画像解析部426によって画角または視線方向の少なくとも一方が変更されたか否かが検出されると、本フローチャートにおける処理は終了する。
The difference
以上説明したように、実施の形態に係る手術支援装置400によれば、2次元顕微鏡画像上に3次元の再構成画像を簡便に投影して重畳表示する技術を提供することができる。
As described above, according to the
特に、実施の形態に係る手術支援装置400は、重畳表示のために特別に用意された顕微鏡を用いずに、再構成画像を顕微鏡画像上に重畳することができる。また、重畳表示に際し、例えば顕微鏡のズーム情報等の情報を用いずに、再構成画像と顕微鏡画像とのレジストレーションを実現することができる。このレジストレーションは短時間で終了するため、手術中に顕微鏡の画角または視線方向の少なくとも一方が変更されたとしても、精度の高いレジストレーションを維持することができる。
In particular, the
以上、実施の形態に基づき本発明を説明したが、実施の形態は、本発明の原理、応用を示すにすぎない。また、実施の形態には、請求の範囲に規定された本発明の思想を逸脱しない範囲において、多くの変形例や配置の変更が可能である。 As mentioned above, although this invention was demonstrated based on embodiment, embodiment only shows the principle and application of this invention. In the embodiment, many modifications and arrangements can be made without departing from the spirit of the present invention defined in the claims.
上記では、MRI画像やCT画像など、3次元の再構成画像と顕微鏡画像とをレジストレーションし、再構成画像の少なくとも一部を顕微鏡画像に重畳する場合について説明した。しかしながら、上記で説明したレジストレーション処理の原理は、再構成画像を顕微鏡画像に重畳表示する場合以外にも適用可能である。例えば、医用の範囲でいうならば、手術用顕微鏡200に代えて、例えば内視鏡の画像に再構成画像を重畳するようにしてもよい。
In the above description, a case has been described in which a three-dimensional reconstructed image such as an MRI image or a CT image is registered with a microscope image, and at least a part of the reconstructed image is superimposed on the microscope image. However, the principle of the registration process described above can be applied to cases other than the case where the reconstructed image is superimposed on the microscope image. For example, in the medical range, instead of the
医用の用途に限らず、上記で説明したレジストレーション処理の原理は、3次元のデータを2次元画像に重畳する場合に広く適用できる。例えば、メガネ型のウェアラブルコンピュータ等、現実世界にAR(Augmented Reality)イメージを重畳する場合等に利用可能である。 The principle of the registration process described above is not limited to medical use, and can be widely applied when three-dimensional data is superimposed on a two-dimensional image. For example, it can be used when superimposing an AR (Augmented Reality) image on the real world, such as a glasses-type wearable computer.
[参考文献]
[1] 井上ら, 脳神経外科手術における顕微鏡重畳ナビゲーションの将来性とその課題〜商用システムの輪郭重畳表示と比較して〜, 日本コンピュータ外科学会誌,Vol.13(3), pp. 211-212, 2011.
[2] P. J. Edwards et al., Design and Evaluation of a System for Microscope-Assisted Guided Interventions(MAGI),MICCAI’99, LNCS 1679, pp. 842-852, 1999.
[3] 村上研二,画像間演算を用いたHough変換による直線抽出の高速化,電気学会論文誌133(8), 1539-1548, 2013.
[4] 藤吉弘亘, Gradientベースの特徴抽出: SIFTとHOG, 情報処理学会研究報告CVIM(160):211-224, 2007.
[References]
[1] Inoue et al., Future Prospects and Challenges of Microscopic Superposition Navigation in Neurosurgery-Comparison with Contour Superposition Display of Commercial Systems-, Journal of Japanese Society of Computer Aided Surgery, Vol.13 (3), pp. 211-212 , 2011.
[2] PJ Edwards et al., Design and Evaluation of a System for Microscope-Assisted Guided Interventions (MAGI), MICCAI '99, LNCS 1679, pp. 842-852, 1999.
[3] Kenji Murakami, Acceleration of line extraction by Hough transform using inter-image arithmetic, IEEJ Transactions 133 (8), 1539-1548, 2013.
[4] Hiroyoshi Fujiyoshi, Gradient-based feature extraction: SIFT and HOG, Information Processing Society of Japan CVIM (160): 211-224, 2007.
3 術具、 100 手術支援システム、 200 手術用顕微鏡、 300 3次元計測装置、 400 手術支援装置、 402 医用画像取得部、 404 第1変換行列取得部、 406 3次元座標取得部、 408 画像重畳部、 410 動画取得部、 412 画像解析部、 414 第2変換行列取得部、 420 術具特定部、 422 背景領域特定部、 424 差分画像取得部、 426 差分画像解析部。
3 surgical tools, 100 surgery support system, 200 surgical microscope, 300 3D measurement device, 400 surgery support device, 402 medical image acquisition unit, 404 first transformation matrix acquisition unit, 406 3D coordinate acquisition unit, 408
Claims (5)
手術に用いられる術具の3次元的な位置座標を取得する3次元座標取得部と、
前記再構成画像に設定された画像座標系の座標を、前記3次元座標取得部が位置座標計測に用いる座標系の座標に変換する第1変換行列を取得する第1変換行列取得部と、
被術者の術野を撮影した2次元動画像を取得する動画取得部と、
前記動画取得部が取得した動画像に設定された2次元座標系における術具の2次元的な位置座標を取得する画像解析部と、
前記3次元座標取得部が取得した術具の3次元的な位置座標と、前記画像解析部が取得した術具の2次元的な位置座標とをもとに、前記3次元的な位置座標を前記2次元的な位置座標に変換する第2変換行列を推定する第2変換行列取得部と、
前記第1変換行列と前記第2変換行列とを用いて、前記再構成画像の少なくとも一部を前記2次元動画像上に2次元画像として重畳する画像重畳部とを備え、
前記画像解析部は、前記動画取得部が取得する動画像を解析して前記動画像の画角または視線方向の少なくとも一方が変更されたか否かを検出し、
前記第2変換行列取得部は、前記画像解析部が画角または視線方向の少なくとも一方の変更を検出することを契機として、前記第2変換行列を推定することを特徴とする手術支援装置。 A medical image acquisition unit for acquiring a reconstructed image of a region including the surgical part of the subject;
A three-dimensional coordinate acquisition unit for acquiring three-dimensional position coordinates of a surgical instrument used for surgery;
A first conversion matrix acquisition unit for acquiring a first conversion matrix for converting the coordinates of the image coordinate system set in the reconstructed image into coordinates of a coordinate system used by the three-dimensional coordinate acquisition unit for position coordinate measurement;
A video acquisition unit that acquires a two-dimensional moving image of the subject's operative field;
An image analysis unit for acquiring a two-dimensional position coordinate of the surgical instrument in a two-dimensional coordinate system set in the moving image acquired by the moving image acquisition unit;
Based on the three-dimensional position coordinates of the surgical tool acquired by the three-dimensional coordinate acquisition unit and the two-dimensional position coordinates of the surgical tool acquired by the image analysis unit, the three-dimensional position coordinates are obtained. A second transformation matrix acquisition unit that estimates a second transformation matrix to be transformed into the two-dimensional position coordinates;
An image superimposing unit that superimposes at least a part of the reconstructed image on the two-dimensional moving image as a two-dimensional image using the first transformation matrix and the second transformation matrix;
The image analysis unit analyzes the moving image acquired by the moving image acquisition unit to detect whether at least one of the angle of view or the line-of-sight direction of the moving image has been changed,
The surgery support device, wherein the second transformation matrix acquisition unit estimates the second transformation matrix when the image analysis unit detects a change in at least one of an angle of view or a line-of-sight direction.
前記動画像のフレーム毎に背景領域を特定する背景領域特定部と、
前記背景領域特定部が特定した異なるフレーム間の背景画像の差分画像を取得する差分画像取得部と、
前記差分画像取得部が取得して差分画像を解析して、前記動画像の画角または視線方向の少なくとも一方が変更されたか否かを検出する差分画像解析部とを備えることを特徴とする請求項1に記載の手術支援装置。 The image analysis unit
A background area specifying unit for specifying a background area for each frame of the moving image;
A difference image acquisition unit that acquires a difference image of a background image between different frames specified by the background region specifying unit;
The differential image acquisition unit includes a differential image analysis unit that acquires and analyzes the differential image to detect whether at least one of an angle of view or a line-of-sight direction of the moving image has been changed. Item 2. The surgical operation support device according to Item 1.
被術者の術部を含む領域の再構成画像を取得する機能と、
手術に用いられる術具の3次元的な位置座標を取得する機能と、
被術者の術野を撮影した2次元動画像を取得する機能と、
前記再構成画像に設定された画像座標系の座標を、3次元的な位置座標の計測に用いる座標系の座標に変換する第1変換行列を取得する機能と、
前記動画像に設定された2次元座標系における術具の2次元的な位置座標を取得する機能と、
前記動画像を解析して取得した2次元動画像の画角または視線方向の少なくとも一方が変更されたか否かを検出する機能と、
前記画角または視線方向の少なくとも一方の変更を検出することを契機として、前記3次元的な位置座標と、前記2次元的な位置座標とをもとに、前記3次元的な位置座標を前記2次元的な位置座標に変換する第2変換行列を推定する機能と、
前記第1変換行列と前記第2変換行列とを用いて、前記再構成画像の少なくとも一部を2次元動画像上に2次元画像として重畳する機能とを含むことを特徴とするプログラム。 A program for realizing a surgery support function on a computer, wherein the surgery support function is:
A function of acquiring a reconstructed image of an area including a surgical part of a subject;
A function of acquiring a three-dimensional position coordinate of a surgical instrument used in surgery;
A function for acquiring a two-dimensional video image of the surgical field of the subject;
A function of acquiring a first conversion matrix for converting coordinates of an image coordinate system set in the reconstructed image into coordinates of a coordinate system used for measurement of three-dimensional position coordinates;
A function of acquiring a two-dimensional position coordinate of the surgical instrument in a two-dimensional coordinate system set in the moving image;
A function of detecting whether or not at least one of an angle of view or a line-of-sight direction of the two-dimensional moving image obtained by analyzing the moving image is changed;
Triggered by detecting a change in at least one of the angle of view or the line-of-sight direction, the three-dimensional position coordinate is calculated based on the three-dimensional position coordinate and the two-dimensional position coordinate A function of estimating a second transformation matrix for transformation into two-dimensional position coordinates;
A program comprising a function of superimposing at least a part of the reconstructed image on a two-dimensional moving image as a two-dimensional image using the first transformation matrix and the second transformation matrix.
被術者の術野を撮影して2次元動画像を生成する顕微鏡と、
情報処理装置とを備え、
前記情報処理装置は、
前記被術者の術部を含む領域の再構成画像を取得する医用画像取得部と、
前記3次元計測装置が計測した3次元的な位置座標を取得する3次元計測部と、
前記顕微鏡が生成した動画像を取得する動画取得部と、
前記再構成画像に設定された画像座標系の座標を、前記3次元計測部が位置座標計測に用いる座標系の座標に変換する第1変換行列を取得する第1変換行列取得部と、
前記顕微鏡が生成する動画像に設定された2次元座標系における術具の2次元的な位置座標を取得する画像解析部と、
前記3次元計測部が取得した術具の3次元的な位置座標と、前記画像解析部が取得した術具の2次元的な位置座標とをもとに、前記3次元的な位置座標を前記2次元的な位置座標に変換する第2変換行列を推定する第2変換行列取得部と、
前記第1変換行列と前記第2変換行列とを用いて、前記再構成画像の少なくとも一部を2次元動画像上に2次元画像として重畳する画像重畳部とを備え、
前記画像解析部は、前記動画取得部が撮影する動画像を解析して前記動画取得部の画角または視線方向の少なくとも一方が変更されたか否かを検出し、
前記第2変換行列取得部は、前記画像解析部が画角または視線方向の少なくとも一方の変更を検出することを契機として、前記第2変換行列を推定する
ことを特徴とする手術支援システム。 A three-dimensional measuring device for measuring the three-dimensional position coordinates of a surgical instrument used in surgery;
A microscope that captures the surgical field of the subject and generates a two-dimensional moving image;
An information processing device,
The information processing apparatus includes:
A medical image acquisition unit for acquiring a reconstructed image of a region including the surgical part of the subject;
A three-dimensional measurement unit that acquires three-dimensional position coordinates measured by the three-dimensional measurement device;
A moving image acquisition unit for acquiring a moving image generated by the microscope;
A first conversion matrix acquisition unit for acquiring a first conversion matrix for converting coordinates of the image coordinate system set in the reconstructed image into coordinates of a coordinate system used by the three-dimensional measurement unit for position coordinate measurement;
An image analysis unit for acquiring a two-dimensional position coordinate of the surgical instrument in a two-dimensional coordinate system set in the moving image generated by the microscope;
Based on the three-dimensional position coordinates of the surgical tool acquired by the three-dimensional measurement unit and the two-dimensional position coordinates of the surgical tool acquired by the image analysis unit, the three-dimensional position coordinates are calculated as described above. A second transformation matrix acquisition unit that estimates a second transformation matrix to be transformed into two-dimensional position coordinates;
An image superimposing unit that superimposes at least a part of the reconstructed image on a two-dimensional moving image as a two-dimensional image using the first transformation matrix and the second transformation matrix;
The image analysis unit analyzes the moving image captured by the moving image acquisition unit to detect whether at least one of the angle of view or the line-of-sight direction of the moving image acquisition unit is changed,
The surgery support system, wherein the second transformation matrix acquisition unit estimates the second transformation matrix when the image analysis unit detects a change in at least one of an angle of view or a line-of-sight direction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014128555A JP6290723B2 (en) | 2014-06-23 | 2014-06-23 | Surgery support device and surgery support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014128555A JP6290723B2 (en) | 2014-06-23 | 2014-06-23 | Surgery support device and surgery support system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016007277A true JP2016007277A (en) | 2016-01-18 |
JP6290723B2 JP6290723B2 (en) | 2018-03-07 |
Family
ID=55225332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014128555A Active JP6290723B2 (en) | 2014-06-23 | 2014-06-23 | Surgery support device and surgery support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6290723B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107564089A (en) * | 2017-08-10 | 2018-01-09 | 腾讯科技(深圳)有限公司 | Three dimensional image processing method, device, storage medium and computer equipment |
KR20180104047A (en) * | 2016-01-19 | 2018-09-19 | 타이탄 메디칼 아이엔씨. | Graphical user interface for robotic surgery system |
CN111759634A (en) * | 2020-07-13 | 2020-10-13 | 上海卓昕医疗科技有限公司 | Mechanical arm and bed matching system and method and clinical application method thereof |
CN112971993A (en) * | 2016-08-16 | 2021-06-18 | 株式会社高迎科技 | Surgical robot system for positioning operation and control method thereof |
CN113547515A (en) * | 2021-07-16 | 2021-10-26 | 华中科技大学 | Coordinate calibration method based on ultrasonic servo surgical robot |
JP2021189762A (en) * | 2020-05-29 | 2021-12-13 | 三菱プレシジョン株式会社 | Image processing apparatus and computer program for image processing |
CN114302130A (en) * | 2021-12-06 | 2022-04-08 | 嘉兴智瞳科技有限公司 | Intelligent microsurgery imaging device control method and system |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3809094B1 (en) | 2019-10-18 | 2024-04-17 | Carl Zeiss Industrielle Messtechnik GmbH | Method and arrangement for visualising sensor signals of an optical sensor of a coordinate measuring device, and method and arrangement for visualising a sensor of a coordinate measuring device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10143652A (en) * | 1996-11-14 | 1998-05-29 | Toshiba Iyou Syst Eng Kk | Medical image composing device |
JP2005058378A (en) * | 2003-08-08 | 2005-03-10 | Olympus Corp | Operation observation system |
JP2008532602A (en) * | 2005-03-11 | 2008-08-21 | ブラッコ・イメージング・ソシエタ・ペル・アチオニ | Surgical navigation and microscopy visualization method and apparatus |
-
2014
- 2014-06-23 JP JP2014128555A patent/JP6290723B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10143652A (en) * | 1996-11-14 | 1998-05-29 | Toshiba Iyou Syst Eng Kk | Medical image composing device |
JP2005058378A (en) * | 2003-08-08 | 2005-03-10 | Olympus Corp | Operation observation system |
JP2008532602A (en) * | 2005-03-11 | 2008-08-21 | ブラッコ・イメージング・ソシエタ・ペル・アチオニ | Surgical navigation and microscopy visualization method and apparatus |
Non-Patent Citations (2)
Title |
---|
井上大輔ほか9名: ""脳神経外科手術における顕微鏡重畳ナビゲーションの将来性とその課題〜商用システムの輪郭重畳表示と比較", 日本コンピュータ外科学会誌, vol. 第13巻,第3号, JPN6018001463, 2011, pages 278 - 279, ISSN: 0003722670 * |
岡正倫ほか5名: ""耳鼻咽喉科日常診療における顕微鏡画像重畳ナビゲーションの臨床応用の試み"", 日本コンピュータ外科学会誌, vol. 第12巻,第3号, JPN6018001461, 2010, pages 240 - 241, ISSN: 0003722669 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102518492B1 (en) | 2016-01-19 | 2023-04-05 | 타이탄 메디칼 아이엔씨. | Graphical user interface for a robotic surgical system |
KR20180104047A (en) * | 2016-01-19 | 2018-09-19 | 타이탄 메디칼 아이엔씨. | Graphical user interface for robotic surgery system |
KR102258511B1 (en) | 2016-01-19 | 2021-05-31 | 타이탄 메디칼 아이엔씨. | Graphical user interface for robotic surgical systems |
KR20210064404A (en) * | 2016-01-19 | 2021-06-02 | 타이탄 메디칼 아이엔씨. | Graphical user interface for a robotic surgical system |
CN112971993A (en) * | 2016-08-16 | 2021-06-18 | 株式会社高迎科技 | Surgical robot system for positioning operation and control method thereof |
CN107564089A (en) * | 2017-08-10 | 2018-01-09 | 腾讯科技(深圳)有限公司 | Three dimensional image processing method, device, storage medium and computer equipment |
CN107564089B (en) * | 2017-08-10 | 2022-03-01 | 腾讯科技(深圳)有限公司 | Three-dimensional image processing method, device, storage medium and computer equipment |
JP2021189762A (en) * | 2020-05-29 | 2021-12-13 | 三菱プレシジョン株式会社 | Image processing apparatus and computer program for image processing |
JP7469961B2 (en) | 2020-05-29 | 2024-04-17 | 三菱プレシジョン株式会社 | Image processing device and computer program for image processing |
CN111759634A (en) * | 2020-07-13 | 2020-10-13 | 上海卓昕医疗科技有限公司 | Mechanical arm and bed matching system and method and clinical application method thereof |
CN113547515A (en) * | 2021-07-16 | 2021-10-26 | 华中科技大学 | Coordinate calibration method based on ultrasonic servo surgical robot |
CN113547515B (en) * | 2021-07-16 | 2022-07-12 | 华中科技大学 | Coordinate calibration method based on ultrasonic servo surgical robot |
CN114302130A (en) * | 2021-12-06 | 2022-04-08 | 嘉兴智瞳科技有限公司 | Intelligent microsurgery imaging device control method and system |
Also Published As
Publication number | Publication date |
---|---|
JP6290723B2 (en) | 2018-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6290723B2 (en) | Surgery support device and surgery support system | |
KR102013866B1 (en) | Method and apparatus for calculating camera location using surgical video | |
US9990744B2 (en) | Image registration device, image registration method, and image registration program | |
EP2372660A2 (en) | Projection image generation apparatus and method, and computer readable recording medium on which is recorded program for the same | |
WO2017179350A1 (en) | Device, method and program for controlling image display | |
Paul et al. | Augmented virtuality based on stereoscopic reconstruction in multimodal image-guided neurosurgery: methods and performance evaluation | |
KR101767005B1 (en) | Method and apparatus for matching images using contour-based registration | |
CN110288653B (en) | Multi-angle ultrasonic image fusion method and system and electronic equipment | |
US10078906B2 (en) | Device and method for image registration, and non-transitory recording medium | |
JP2016202351A (en) | Medical support system, medical support method, image processing apparatus, control method and control program thereof | |
JP6493877B2 (en) | Reference point evaluation apparatus, method and program, and alignment apparatus, method and program | |
WO2001059708A1 (en) | Method of 3d/2d registration of object views to a surface model | |
KR100346363B1 (en) | Method and apparatus for 3d image data reconstruction by automatic medical image segmentation and image guided surgery system using the same | |
US10102638B2 (en) | Device and method for image registration, and a nontransitory recording medium | |
WO2009027088A9 (en) | Augmented visualization in two-dimensional images | |
US10631948B2 (en) | Image alignment device, method, and program | |
JP6476125B2 (en) | Image processing apparatus and surgical microscope system | |
JP7037810B2 (en) | Image processing device, image processing program, and image processing method | |
JP6739411B2 (en) | Magnetic field distortion calculation device, method and program | |
CN115105202A (en) | Focus confirmation method and system used in endoscopic surgery | |
JP2024525733A (en) | Method and system for displaying image data of pre-operative and intra-operative scenes - Patents.com | |
CN116958486A (en) | Medical image processing method and system based on convolutional neural network | |
US10049480B2 (en) | Image alignment device, method, and program | |
EP1124201A1 (en) | Method for 3D/2D registration using multiple views and a surface model of an object | |
CN111743628A (en) | Automatic puncture mechanical arm path planning method based on computer vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20170509 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6290723 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |