JPWO2016076262A1 - Medical equipment - Google Patents
Medical equipment Download PDFInfo
- Publication number
- JPWO2016076262A1 JPWO2016076262A1 JP2016528926A JP2016528926A JPWO2016076262A1 JP WO2016076262 A1 JPWO2016076262 A1 JP WO2016076262A1 JP 2016528926 A JP2016528926 A JP 2016528926A JP 2016528926 A JP2016528926 A JP 2016528926A JP WO2016076262 A1 JPWO2016076262 A1 JP WO2016076262A1
- Authority
- JP
- Japan
- Prior art keywords
- index
- image
- information
- distance
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/307—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the urinary organs, e.g. urethroscopes, cystoscopes
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Biophysics (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Urology & Nephrology (AREA)
- Endoscopes (AREA)
Abstract
医療装置は、所定の視点の位置情報と視線方向情報を取得する情報取得部と、位置情報及び視線情報を、所定の管腔臓器の3次元画像情報の座標系に合わせ込む位置合わせ部と、所定の視点の視線方向を延長したときに所定の管腔臓器の内壁と交差する位置を算出する位置算出部と、位置算出部の位置と所定の視点までの距離情報を算出する距離算出部と、距離情報に基づき規定される指標を生成する指標生成部と、所定の管腔臓器の3次元画像又は所定の管腔臓器を展開した2次元モデル画像上において、指標と内壁の位置情報とを関連付けた画像を生成する画像生成部と、を備える。The medical apparatus includes an information acquisition unit that acquires position information and gaze direction information of a predetermined viewpoint, a position adjustment unit that aligns the position information and the line-of-sight information with a coordinate system of three-dimensional image information of a predetermined luminal organ, A position calculation unit that calculates a position that intersects the inner wall of a predetermined luminal organ when the line-of-sight direction of the predetermined viewpoint is extended; a distance calculation unit that calculates position information of the position calculation unit and distance information to the predetermined viewpoint; An index generator for generating an index defined based on distance information, and a three-dimensional image of a predetermined luminal organ or a two-dimensional model image in which a predetermined luminal organ is developed, An image generation unit for generating an associated image.
Description
本発明は、被検体内に挿入され、画像を取得する医療装置に関する。 The present invention relates to a medical device that is inserted into a subject and acquires an image.
近年、被検体内に挿入され、被検体内部を観察したり、処置具などを用いて処置する医療装置としての内視鏡を備えた内視鏡装置が広く普及している。内視鏡を用いて、観察(又は検査)対象の所定の管腔臓器内部を観察するような場合、観察済みであるか否かを術者が識別できると、同じ領域を重複して観察することを防止できる等の利点がある。
例えば日本国特開2013−27697号公報の従来例は、仮想内視鏡を用いて、管状体の内部を観察する場合、観察済みの領域と、未観察の領域を、管状体の画像上に識別可能となるように表示する装置を開示している。2. Description of the Related Art In recent years, endoscope apparatuses equipped with an endoscope as a medical apparatus that is inserted into a subject and observes the inside of the subject or performs a treatment using a treatment tool or the like are widely used. When observing the inside of a predetermined luminal organ to be observed (or examined) using an endoscope, if the surgeon can identify whether or not it has already been observed, the same region is observed repeatedly. There is an advantage that it can be prevented.
For example, in the conventional example of Japanese Patent Laid-Open No. 2013-27697, when observing the inside of a tubular body using a virtual endoscope, an observed area and an unobserved area are displayed on the image of the tubular body. An apparatus for displaying so as to be identifiable is disclosed.
しかしながら、上記従来例は、視点から観察される部位までの距離が異なるような場合の区別をしないため、術者が実質的に観察した観察済みの状態であるか、遠方から単に視野内に入ったために観察済みとなり、術者が実質的には観察していない状態に近いか否かの判定ができないために、識別した場合の有効性が低い欠点がある。
このため、視点から観察対象の臓器内壁までの距離情報に応じた指標等から実質的に観察した観察済みの状態であるか否かが容易に判断できるようにすることが望まれる。
本発明は上述した点に鑑みてなされたもので、実質的に観察した観察済みの状態であるか否かを判断し易い画像を生成することができる医療装置を提供することを目的とする。However, since the conventional example does not distinguish between cases where the distance from the viewpoint to the site to be observed is different, it is an observed state that the operator has actually observed, or simply enters the visual field from a distance. Therefore, since it is already observed and it is not possible to determine whether or not the operator is substantially not observing, there is a drawback that the effectiveness when identified is low.
For this reason, it is desirable to be able to easily determine whether or not the observed state is substantially observed from an index or the like according to distance information from the viewpoint to the inner wall of the organ to be observed.
The present invention has been made in view of the above-described points, and an object of the present invention is to provide a medical device capable of generating an image that makes it easy to determine whether or not a substantially observed state has been observed.
本発明の一態様の医療装置は、所定の管腔臓器内に設けられた所定の視点の位置情報と視線方向情報を取得する情報取得部と、前記位置情報及び前記視線情報を、所定の管腔臓器の3次元画像情報の座標系に合わせ込む位置合わせ部と、前記位置合わせ部によって前記3次元画像情報に対して合わせ込まれた前記位置情報及び前記視線情報に基づき、前記所定の視点の視線方向を延長したときに前記所定の管腔臓器の内壁と交差する位置を算出する位置算出部と、前記位置算出部の位置と前記所定の視点までの距離情報を算出する距離算出部と、前記距離算出部によって取得された前記距離情報に基づき規定される指標を生成する指標生成部と、前記位置算出部の算出結果に基づき、前記所定の管腔臓器の3次元画像又は当該所定の管腔臓器を展開した2次元モデル画像上において、前記指標と前記内壁の位置情報とを関連付けた画像を生成する画像生成部と、を備える。 A medical device according to an aspect of the present invention includes an information acquisition unit that acquires position information and gaze direction information of a predetermined viewpoint provided in a predetermined luminal organ, the position information and the line-of-sight information, A positioning unit that matches the coordinate system of the three-dimensional image information of the cavity organ, and the position information and the line-of-sight information that are matched to the three-dimensional image information by the positioning unit. A position calculation unit that calculates a position that intersects the inner wall of the predetermined luminal organ when extending the line-of-sight direction, a distance calculation unit that calculates distance information between the position of the position calculation unit and the predetermined viewpoint, An index generation unit that generates an index defined based on the distance information acquired by the distance calculation unit, and a three-dimensional image of the predetermined luminal organ or the predetermined tube based on a calculation result of the position calculation unit Cavity organ In the two-dimensional model image obtained by developing, and an image generating unit that generates an image associated with the position information of the said indicator inner wall.
以下、図面を参照して本発明の実施形態を説明する。
(第1の実施形態)
図1に示すように本発明の第1の実施形態の医療装置1は、被検体としての患者P内部の所定の管腔臓器(具体例では膀胱B)内部を観察(又は検査)する内視鏡2と、光源装置3と、プロセッサ4と、画像処理装置5と、モニタ6と、磁場発生装置7とを備えて構成される。医療装置1は、通常光観察と特殊光観察の2つの観察モードで観察する機能を有する。医療装置1のユーザとしての術者は、ベッド8上に仰向け等で載置されている患者Pにおける所定の管腔臓器(単に管腔臓器、又は臓器とも言う)としての膀胱B内部の内視鏡検査を行う。
内視鏡2は、操作部2aと、可撓性を有する挿入部2bと、ユニバーサルケーブル2cとを有する。内視鏡2は、例えば膀胱検査用の内視鏡により構成される。
さらに、ユニバーサルケーブル2c内には、図2に示すようなライトガイド9が挿通されており、内視鏡2は、光源装置3からの照明光を、ライトガイド9を通して挿入部2bの先端部2dの照明窓から出射し、挿入部2bの先端部2dが挿入された被検体内の所定の管腔臓器(としての膀胱B)内部を照明する。Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
As shown in FIG. 1, the
The
Further, a
また、図2に示すように、挿入部2bの先端部2dには、対物光学系10と、その結像位置に撮像面が配置され、撮像面に結像された光学像を光電変換して撮像信号として出力する撮像素子11とが設けられている。光源装置3の照明光により照明された膀胱Bの内壁は、撮像素子11により撮像される。従って、対物光学系10と撮像素子11は、管腔臓器内部を撮像する撮像部(又は撮像装置)12を形成する。撮像素子11により得られた撮像信号は、ユニバーサルケーブル2c内の信号線を介して管腔臓器としての膀胱B内部の撮像画像を生成するプロセッサ4に入力され、撮像信号は、プロセッサ4内の画像生成回路4aにおいて画像生成の処理が行われ、膀胱B内部を撮像した撮像画像としての内視鏡画像が生成される。
本実施形態においては、プロセッサ4内の画像生成回路4aは、先端部2dに搭載された撮像部12の撮像素子11の撮像面に結像された被検体の光学像を電気的な撮像信号に変換して、光学像に対応する撮像画像を生成し、生成された撮像画像はモニタ6における内視鏡画像表示エリアに表示される。図2の構成においては、画像生成回路4aにより生成した内視鏡画像は、画像処理装置5を経由して例えば図5に示すようにモニタ6の内視鏡画像表示エリアA1に、画像処理装置5により生成された他の画像と重畳又は合成して表示される。In addition, as shown in FIG. 2, the
In the present embodiment, the image generation circuit 4a in the processor 4 converts the optical image of the subject imaged on the imaging surface of the imaging device 11 of the
膀胱Bの内壁を撮像する撮像部12の位置及び撮像する撮像方向(対物光学系10の光軸方向)が、撮像画像を生成する場合の視点の位置及び視線方向となる。
プロセッサ4は、観察モードを切り換えるための切換スイッチ4bを有し、切換スイッチ4bにより指定された観察モード信号は画像生成回路4aに入力され、画像生成回路4aは、切換スイッチ4bにより指定された観察モードに応じた内視鏡画像を生成する。より具体的には、通常光観察モードが指定された場合には、通常光(としての白色光)の照明の下で撮像した通常光観察画像を生成し、特殊光観察モードが指定された場合には、特殊光観察画像(より狭義には狭帯域光観察画像)を生成する。
また、切換スイッチ4bによる観察モード信号は、光源装置3のLED制御回路3aに入力され、LED制御回路3aは、観察モードに応じた照明光を生成するように制御する。The position of the
The processor 4 has a
The observation mode signal from the
切換スイッチ4bにより、通常光観察モードが指定された場合には、LED制御回路3aは通常光観察モード用の光源となる白色LED3bを発光させるように制御し、特殊光観察モードが指定された場合には、LED制御回路3aは特殊光観察モード用の光源となる狭帯域の青色LED3cを発光させるように制御する。
狭帯域の青色LED3cが発光した場合には、この狭帯域の青色の光が進行する光路上に45度の角度で配置されたダイクロイックミラー3dにより選択的に反射された後、集光レンズ3eにより集光されてライトガイド9の基端に入射される。ライトガイド9の基端に入射された狭帯域の青色の照明光は、ライトガイド9により伝送され、ライトガイド9の先端が取り付けられた照明窓から出射され、特殊光観察モード用の照明(より狭義には狭帯域光観察モード用の照明)を行う。
また、白色LED3bが発光した場合の白色光は、その光路上に配置されたダイクロイックミラー3dにより、狭帯域の青色の光を除く白色光の殆どが選択的に透過し、集光レンズ3eにより集光されてライトガイド9の基端に入射される。ライトガイド9の基端に入射された狭帯域の青色光を除く白色の照明光は、ライトガイド9により伝送され、ライトガイド9の先端が取り付けられた照明窓から出射され、通常光観察モード用の照明を行う。When the normal light observation mode is designated by the
When the narrow-
In addition, white light emitted from the
また、プロセッサ4(の画像生成回路4a)により生成された内視鏡画像は、プロセッサ4からモニタ6へ出力され、例えば図5に示すようにライブの内視鏡画像Ienが、モニタ6上に表示される。内視鏡検査を行う術者は、挿入部2bの先端部2dを患者Pの尿道から挿入し、患者Pの膀胱B(図1において点線で示す)内を観察することができる。
さらに、挿入部2bの先端部2dには、位置センサとしての磁気センサ13が配置されている。具体的には、図2に示すように先端部2dの撮像部12を構成する対物光学系10と撮像素子11の近傍には、磁気センサ13が設けられている。この磁気センサ13は、先端部2dにおける撮像部12の視点となる3次元位置(単に位置)と、その位置での視線方向との検出に利用される。
図2に示す内視鏡2は、先端部2dに搭載された撮像部12を構成する対物光学系10の光軸方向が、先端部2dの軸方向と平行となるために、撮像部12の位置及び視線方向は、先端部2dの位置及びその軸方向(単に方向)と近似できる。Further, the endoscopic image generated by the processor 4 (the image generation circuit 4a thereof) is output from the processor 4 to the
Further, a
In the
なお、本実施形態は、図2に示すように先端部2dに配置された対物光学系10により、先端部2dに配置された撮像素子11の撮像面に被検体の光学像を結像する内視鏡2の場合に限らず、先端部2dに配置された対物光学系10により結像した光学像を挿入部2bの後方(基端)側に伝送し、挿入部2bの基端側に配置された撮像素子で撮像する内視鏡の場合にも適用できる。
この場合を含めた表現としては、撮像部の視点の位置(及び視線方向)の表現を用いるよりも(先端部2dに配置された)対物光学系10の視点の位置(及び視線方向)を用いる方が妥当である。このため、以下においては、主に、視点の位置及び視線方向を対物光学系10の視点の位置及び視線方向として用いたり、近似的な表現として視点の位置及び視線方向の代わりに(対物光学系10又は先端部2dの)位置及び方向を用いる場合もある。
図1の拡大図に示すように、磁気センサ13は、例えば2つのコイル2eを有する。磁気センサ13は、先端部2dの位置及び方向を検出するセンサとなる。磁気センサ13の信号線2fは、内視鏡2から延出され、画像処理装置5(内の位置方向取得回路25)に接続される。In the present embodiment, as shown in FIG. 2, an optical image of the subject is formed on the imaging surface of the imaging device 11 arranged at the
As an expression including this case, the viewpoint position (and the line-of-sight direction) of the objective optical system 10 (arranged at the
As shown in the enlarged view of FIG. 1, the
磁場発生装置7は既知となる所定の位置において磁場を発生し、磁気センサ13は、磁場発生装置7が発生する磁場を検出する。磁場の検出信号は、信号線2fを介して内視鏡2から画像処理装置5(内の位置方向取得回路25)に入力される。
位置方向取得回路25は、入力された検出信号の振幅と位相とから先端部2dに配置された対物光学系10の視点となる位置及び視線方向の情報としての視点の位置情報(視点位置情報とも言う)と視線方向情報とを取得する情報取得部(又は情報取得回路)25aの機能を備える。なお、本実施形態においては、観察対象の管腔臓器は膀胱Bの内壁であり、膀胱Bは、後述するように球体の3次元(3D)画像で近似することができる。つまり、膀胱Bは、球体で表される3D画像M1(図4)で近似される。
内視鏡2の操作部2aには、レリーズボタン(又はレリーズスイッチ)14が設けられている。レリーズボタン14は、術者等のユーザが内視鏡画像を記録(又は記憶)するときに、押すためのボタンである。レリーズボタン14が押されると、レリーズボタン操作信号がプロセッサ4へ入力され、プロセッサ4は、レリーズ信号を生成して、画像処理装置5へ出力する。レリーズボタン14が押されたときの内視鏡画像は、画像処理装置5の後述するメモリ22に記録(又は記憶)される。The
The position /
A release button (or release switch) 14 is provided on the
また、内視鏡2には、各内視鏡2に固有の識別情報(IDと略記)を発生するROM(リードオンリメモリ)等により構成されるID発生部(図2では単にIDと略記)15を有し、このID発生部15は、プロセッサ4を経て画像処理装置5(内の位置方向取得回路25)に入力される。
図2に示すように、IDがプロセッサ4を介することなく、画像処理装置5(内の位置方向取得回路25)に入力されるようにしても良い。位置方向取得回路25は、IDから対物光学系10の焦点距離、対物光学系10による光学像を撮像する撮像素子11の画素数、ピクセルのサイズ、画角(視野角)等、撮像部12が撮像する場合の撮像情報を取得する撮像情報取得部(又は撮像情報取得回路)25bの機能を備える。取得された撮像情報を、後述する指標を生成する場合に利用しても良い。
画像処理装置5は、中央処理装置(以下、CPUという)21と、メモリ22と、表示インターフュース(以下、表示I/Fと略す)23と、画像取込回路24と、位置方向取得回路25と、駆動回路27とを備える。CPU21と、メモリ22と、表示I/F23と、画像取込回路24と、位置方向取得回路25とは、バス28を介して互いに接続されている。Further, the
As shown in FIG. 2, the ID may be input to the image processing apparatus 5 (the position / direction acquisition circuit 25) without going through the processor 4. The position /
The
また、医療装置1は、画像処理装置5に対して、ユーザが各種の情報の入力や選択するための入力を行う入力装置30を有する。
CPU21は、画像処理装置5内の各部の処理を制御する制御部を構成すると共に、位置方向取得回路25が取得した視点の位置情報と視線方向情報と撮像情報を用いて、先端部2dに配置された対物光学系10の視点と、この視点から(少なくとも)視線方向上となる管腔臓器としての膀胱Bの内壁(面)に交差する位置(又は位置を含む位置情報)を算出する位置算出部を形成する位置算出回路21cを備える。In addition, the
The
距離算出回路21aは、前記視点から位置算出回路21cにより算出された位置までの距離(又は距離を含む距離情報)を算出する。CPU21は、距離算出回路21aによって算出された距離情報に基づき規定(又は決定)される指標を生成する指標生成部を形成する指標生成回路21bと、を備える。 なお、距離算出回路21aの外部に位置算出回路21cを備える構成にしても良いし、位置算出回路21cが距離算出回路21aの機能を含む構成にしても良い。
The
また、CPU21は、管腔臓器の3D画像(又はその近似画像としての3Dモデル画像)M1と、該管腔臓器を展開した二次元(2D)画像のモデル画像としての2Dモデル画像M2とを生成する3D/2D画像生成回路21dと、3D画像M1又は2Dモデル画像M2上において、上記指標と、該指標を生成した場合の管腔臓器の内壁上の位置(情報)とを関連付けた画像(関連付け画像とも言う)を生成する画像生成部を形成する画像生成回路21eとを有する。なお、管腔臓器が膀胱Bの場合には、2Dモデル画像M2を膀胱シェーマ又は単にシェーマとも言う。
画像生成回路21eは、例えば図5に示すように2Dモデル画像M2上において指標Mk1を重畳した(関連付け)画像を生成すると共に、3D画像M1上において指標Mk2を重畳した(関連付け)画像を生成するようにしても良い。
或いは、画像生成回路21eは、図3に示すようには、2Dモデル画像M2上において指標Mk1を重畳した(関連付け)画像を生成するようにしても良い。In addition, the
For example, as illustrated in FIG. 5, the image generation circuit 21e generates an image in which the index Mk1 is superimposed (associated) on the 2D model image M2, and also generates an image in which the index Mk2 is superimposed (associated) on the 3D image M1. You may do it.
Alternatively, as illustrated in FIG. 3, the image generation circuit 21e may generate an image in which the index Mk1 is superimposed (associated) on the 2D model image M2.
また、CPU21は、位置方向取得回路25が取得した視点の位置情報と視線方向情報を取得した際に、磁場発生装置7を基準とした座標系としての第1の座標系(X0Y0Z0)(図1参照)から膀胱の入り口を基準とする中間座標系(X1Y1Z1)(図1参照)に変換する座標変換回路21fの機能を持つ。
なお、後述するように座標変換回路21fは、中間座標系(X1Y1Z1)から第2の座標系(X2Y2Z2)に変換する機能も備える。従って、座標変換回路21fは、第1の座標系(X0Y0Z0)から第2の座標系(X2Y2Z2)に変換する機能を持つ。また、2つの座標系間において座標変換する場合、両座標系において既知となる位置において変換係数、変換行列等を決定する位置合わせの処理を行う位置合わせ部を形成する位置合わせ回路21gの機能を持つ。
座標変換回路21fは、例えば膀胱Bの入口の位置(図4でPR)と方向を位置合わせの基準位置と基準方向と決定し、次の式(1)と式(2)に従って、位置方向取得回路25の位置方向情報を、膀胱Bの入口を基準とする中間座標系(X1Y1Z1)の位置方向情報に変換する。The
As will be described later, the coordinate conversion circuit 21f also has a function of converting from the intermediate coordinate system (X 1 Y 1 Z 1 ) to the second coordinate system (X 2 Y 2 Z 2 ). Therefore, the coordinate conversion circuit 21f has a function of converting from the first coordinate system (X 0 Y 0 Z 0 ) to the second coordinate system (X 2 Y 2 Z 2 ). In addition, when performing coordinate conversion between two coordinate systems, the function of the
The coordinate conversion circuit 21f determines, for example, the position (PR in FIG. 4) and direction of the entrance of the bladder B as the reference position and reference direction for alignment, and acquires the position and direction according to the following expressions (1) and (2). The position / direction information of the
P1=R01P0+M01 ・・・式(1)
V1=R01V0 ・・・式(2)
ここで、P0とV0は、それぞれ、磁場発生装置7を基準とする座標系である第1の座標系(X0Y0Z0)における位置(のベクトル表記)と(大きさが1の)方向ベクトルである。R01は、次の式(3)で示される回転行列であり、M01は、次の式(4)で示される並進行列である。
[数3]
[数4]
よって、第1の座標系(X0Y0Z0)上の点(x0,y0,z0)は、次の式(5)に示すように、中間座標系(X1Y1Z1)上の点(x1,y1,z1)に変換される。P 1 = R 01 P 0 + M 01 (1)
V 1 = R 01
Here, P 0 and V 0 are respectively a position (vector notation) in the first coordinate system (X 0 Y 0 Z 0 ), which is a coordinate system based on the
[Equation 3]
[Equation 4]
Accordingly, the point (x 0 , y 0 , z 0 ) on the first coordinate system (X 0 Y 0 Z 0 ) is represented by the intermediate coordinate system (X 1 Y 1 Z) as shown in the following equation (5). 1 ) is converted into a point (x 1 , y 1 , z 1 ) on the top.
[数5]
内視鏡2の先端部2d(の対物光学系10)の膀胱B内への挿入が検出されたときに位置方向取得回路25により取得される位置と方向のベクトルをP´0、V´0とすると、並進行列M01は以下の式(6)により求められる。
M01=−P´0 ・・・式(6)
また、回転行列R01は以下の条件を満たすように求める。回転行列R01の満たす条件は、Z1軸が重力方向と平行であること、及びZ1軸に対して垂直なX1Y1平面にV´0を投影し、その投影したベクトル方向をY1軸、Y1Z1平面に垂直なベクトルをX1軸とする、ことである。
更に、上記座標変換回路21fは、次の式(7)と式(8)に従って、中間座標系(X1Y1Z1)の位置ベクトルと方向ベクトルを、球形の3D画像M1の中心O2を基準とする第2の座標系(X2Y2Z2)における位置ベクトルと方向ベクトルに変換する。図4は、中間座標系(X1Y1Z1)と第2の座標系(X2Y2Z2)の関係を説明するための図である。[Equation 5]
P'0 position and direction of the vector obtained by the position-
M 01 = −P ′ 0 Formula (6)
Further, the rotation matrix R 01 is obtained so as to satisfy the following conditions. The condition that the rotation matrix R 01 satisfies is that the Z 1 axis is parallel to the gravity direction, and that V ′ 0 is projected onto the X 1 Y 1 plane perpendicular to the Z 1 axis, and the projected vector direction is represented by Y One axis, a vector perpendicular to the Y 1 Z 1 plane is taken as the X 1 axis.
Further, the coordinate conversion circuit 21f converts the position vector and the direction vector of the intermediate coordinate system (X 1 Y 1 Z 1 ) into the center O 2 of the spherical 3D image M1 according to the following equations (7) and (8). Is converted into a position vector and a direction vector in the second coordinate system (X 2 Y 2 Z 2 ). FIG. 4 is a diagram for explaining the relationship between the intermediate coordinate system (X 1 Y 1 Z 1 ) and the second coordinate system (X 2 Y 2 Z 2 ).
P2=R12P1+M02 ・・・式(7)
V2=R12V1 ・・・式(8)
ここで、P1、V1は、それぞれ、中間座標系(X1Y1Z1)における任意の位置における位置(ベクトル)と方向ベクトルであり、P2、V2は、それぞれ、第2の座標系(X2Y2Z2)に変換された場合の位置ベクトルと方向ベクトルである。
P0、V0を位置方向取得回路25から算出される先端部2dの対物光学系10の視点の位置を表す位置(ベクトル)、視線方向の方向ベクトルに設定すると、P0、V0は、P1、V1に変換され、更に該P1、V1は、P2とV2に変換される。
つまり、P0、V0を視点の位置、視線方向の方向ベクトルとして取得すると、対応するP2、V2は、第2の座標系(X2Y2Z2)における対物光学系10の視点Pvの位置ベクトル(Pvで兼用)、視線方向Vの方向ベクトル(Vで兼用)となる。R12は、次の式(9)で示される回転行列であり、M02は、次の式(10)で示される並進行列である。P 2 = R 12 P 1 + M 02 (7)
V 2 = R 12 V 1 (8)
Here, P 1 and V 1 are a position (vector) and a direction vector at an arbitrary position in the intermediate coordinate system (X 1 Y 1 Z 1 ), respectively, and P 2 and V 2 are the second A position vector and a direction vector when converted into the coordinate system (X 2 Y 2 Z 2 ).
When P 0 and V 0 are set to a position (vector) representing the position of the viewpoint of the objective
That is, when P 0 and V 0 are acquired as the viewpoint position and the direction vector in the line-of-sight direction, the corresponding P 2 and V 2 are the viewpoints of the objective
[数9]
[数10]
よって、中間座標系(X1Y1Z1)上の点(x1,y1,z1)は、次の式(11)に示すように、第2の座標系(X2Y2Z2)上の点(x2,y2,z2)に変換される。
[数11]
X1Y1Z1座標系をY1軸方向にR2移動した場合、並進M12と回転R12は、それぞれ、式(12)と式(13)のようになる。[Equation 9]
[Equation 10]
Therefore, a point on the intermediate coordinate system (X 1 Y 1 Z 1) (x 1,
[Equation 11]
When the X 1 Y 1 Z 1 coordinate system is moved R 2 in the Y 1 axis direction, the translation M 12 and the rotation R 12 are as shown in Expression (12) and Expression (13), respectively.
[数12]
[数13]
以上のように、磁場発生装置7の第1の座標系(X0Y0Z0)における位置P0は、式(5)と式(11)より、3D画像M1の中心O2を基準とする第2の座標系(X2Y2Z2)の位置P2に変換され、第1の座標系(X0Y0Z0)における方向V0は、次の式(14)に従って、第2の座標系(X2Y2Z2)の方向V2に変換される。
V2=R12R01V0 ・・・式(14)
また、図4は、内視鏡2の挿入部2bが膀胱B内に挿入された様子を3D画像M1で示し、対物光学系10の視点Pvの位置から視線方向Vが交差する球体の内壁面(膀胱Bの内壁面)の位置も第2の座標系(X2Y2Z2)を用いて扱うことができる。[Equation 12]
[Equation 13]
As described above, the position P 0 in the first coordinate system (X 0 Y 0 Z 0 ) of the
V 2 = R 12 R 01 V 0 ··· formula (14)
FIG. 4 shows a 3D image M1 in which the
第2の座標系(X2Y2Z2)の原点となる中心O2は、膀胱Bへの入口となる頸部PRとその対向部位PTとを結ぶ線分の中点の位置となる。また、第2の座標系(X2Y2Z2)は、膀胱Bにおける左壁側がX2方向、右壁側が−X2方向、患者Pの前壁(腹部)側がZ2方向、患者Pの後壁(背中)側が−Z2方向となるように設定される。
また、図3又は図5に示す2Dモデル画像M2は、図4に示す3D画像(で近似される膀胱Bの内壁面)をX2,Y2を含む平面に沿って展開、又は投影したものとなる。図5中の2Dモデル画像M2においては、上記の代表的な領域となる頸部PR、頸部PRに対応する頂部(Top)、左側壁(Left)、右側壁(Right)、前壁(Front)、後壁(Back)、を示している。
図4に示すように先端部2dの対物光学系10の第2の座標系(X2Y2Z2)における視点Pvの位置と視線方向Vが決定すると、撮像素子11の撮像面11aの中心位置に結像される(膀胱Bを表す)球体の内壁面上の位置Psは、以下のように球体の半径Rを用いて求める。次の式(15)と式(16)を満たす係数kを算出し、第2の座標系(X2Y2Z2)における位置Psの座標位置を求める。The center O 2 that is the origin of the second coordinate system (X 2 Y 2 Z 2 ) is the position of the midpoint of the line segment that connects the neck PR serving as the entrance to the bladder B and the opposing portion PT. In the second coordinate system (X 2 Y 2 Z 2 ), the left wall side in the bladder B is in the X 2 direction, the right wall side is in the −X 2 direction, the front wall (abdomen) side of the patient P is in the Z 2 direction, and the patient P is set to be the rear wall (back) side is -Z 2 direction.
Further, the 2D model image M2 shown in FIG. 3 or FIG. 5 is obtained by developing or projecting the 3D image shown in FIG. 4 (the inner wall surface of the bladder B approximated by) along a plane including X 2 and Y 2. It becomes. In the 2D model image M2 in FIG. 5, the above-mentioned representative region is the neck PR, the top corresponding to the neck PR, the left side wall (Left), the right side wall (Right), the front wall (Front ) And back wall (Back).
As shown in FIG. 4, when the position of the viewpoint Pv and the line-of-sight direction V in the second coordinate system (X 2 Y 2 Z 2 ) of the objective
Ps=Pv+kV ・・・式(15)
|Ps|=R ・・・式(16)
位置算出回路21cは、式(15)、式(16)を用いて、各視点Pvにおいてその視線方向V上となる内壁の位置Psを算出する。また、この位置Psが算出されると、距離算出回路21aは、|Pv−Ps|を算出して、視点Pvから内壁までの距離(情報)を算出する。膀胱Bの形状を半径Rの球体(Rの値を所定の値)としたが、例えば、操作者が先端部2dを膀胱の入り口から距離が最大になる膀胱の内壁(例えば、頂部)に接触させて球体の半径の値を設定しても良い。
図2に示すメモリ22は、ROM、RAM(ランダムアクセスメモリ)、フラッシュメモリなどを用いて形成され、このメモリ22は、CPU21により実行される各種処理プログラム及び各種データを記憶し、さらに、画像生成回路4aにより生成された内視鏡画像の情報、位置方向取得回路25により取得された位置情報と視線方向情報なども記憶する。Ps = Pv + kV (15)
| Ps | = R (16)
The
The
つまり、メモリ22は、内視鏡画像の情報を記憶する内視鏡画像記憶部22aと、視点の位置情報及び視線方向情報を記憶する位置方向情報記憶部22bとを有する。
膀胱Bは、球体の3次元(3D)画像で近似することができ、球体を表す半径等のパラメータが、3D画像M1として、メモリ22内における患者画像情報記憶部22cに格納される。また、管腔臓器としての膀胱Bの3次元画像を展開した2Dモデル画像M2の画像情報もメモリ22内における患者画像情報記憶部22cに格納される。
このため、患者画像情報記憶部22cは、3D画像M1及び2Dモデル画像M2の3D/2D画像記憶部22dの機能を持つ。なお、メモリ22における患者画像情報記憶部22c以外の記憶エリアに3D/2D画像記憶部22dを形成しても良い。That is, the
The bladder B can be approximated by a three-dimensional (3D) image of a sphere, and parameters such as a radius representing the sphere are stored in the patient image
Therefore, the patient image
メモリ22内に格納された3D画像M1と2Dモデル画像M2は、例えばCPU21により読み出され、表示I/F23を介してモニタ6に表示される。また、本実施形態においては、例えば図3,図5に示すように、2Dモデル画像M2上において視点から視線方向に沿って観察した膀胱Bの内壁上の領域を指標Mk1により表した画像(又は指標Mk1を付加した画像又は指標Mk1を重畳した画像)を生成し、モニタ6の表示画面で表示する。術者はこの画像を見ることにより、膀胱B内を観察した観察状態を把握できる。
尚、ここでは患者画像情報記憶部22cから読み出した3Dモデル画像M1と2Dモデル画像M2を説明したが、3Dモデル画像M1と2Dモデル画像M2の取得方法はこれに限られるものではない。例えば、3D/2D画像生成回路21dが撮像部12が撮像した内視鏡画像Ienに基づいた観察位置、視線方向データを用いて、内視鏡2の撮像部12により撮像(観察)された2次元画像データに対応する3Dモデル画像M1や2Dモデル画像M2を生成するようにしても良い。The 3D image M1 and 2D model image M2 stored in the
Here, the 3D model image M1 and the 2D model image M2 read from the patient image
この場合、3D/2D画像生成回路21dは例えば日本国特許第5354494号の公報に記載された方法や、この公報以外に公知となるShape from Shading 法のように1枚の2次元画像から対応する3D形状を推定しても良い。また、2枚以上の画像を用いるステレオ法、単眼移動視による3次元形状推定法、SLAM法、位置センサと組み合わせて3D形状を推定する手法でも良い。また、3D形状を推定する場合、外部のCT装置等の断層像取得装置から取得した3D画像データを参照して3D形状データを構築するようにしても良い。
In this case, the 3D / 2D
また、図5に示すように2Dモデル画像M2上において指標Mk1を付加した画像を表示すると共に、3D画像M1上においても指標Mk2を付加した画像を表示するようにしても良い。
図5の表示例においては、モニタ6は、内視鏡画像表示エリアA1に内視鏡画像Ien、2Dモデル画像表示エリアA2には、2Dモデル画像M2と共に、該2Dモデル画像M2上において指標Mk1を重畳した画像、3D画像表示エリアA3に3D画像M1と共に、3D画像M1上において指標Mk2を重畳した画像を表示する。Further, as shown in FIG. 5, an image with the index Mk1 added may be displayed on the 2D model image M2, and an image with the index Mk2 added may be displayed on the 3D image M1.
In the display example of FIG. 5, the
図5においては、2Dモデル画像M2上における指標Mk1と、3D画像M1上における指標Mk2とは対応するために、術者は両方を参照することにより確実に観察状態を把握することができる。勿論、一方の画像から観察状態を把握することもできる。
メモリ22の3D/2D画像記憶部22dは、時系列に指標Mk1が付加された2Dモデル画像M2、指標Mk2が付加された3D画像M1も順次記憶する。
図2に示す画像取込回路24は、プロセッサ4において生成された内視鏡画像を、一定の周期で取り込む処理を行う画像取込部の機能を有する。画像取込回路24は、例えば、フレームレートと同じ、1秒間に30枚の内視鏡画像を、プロセッサ4から取得する。また、画像取込回路24は、プロセッサ4からのレリーズ信号も受信する。In FIG. 5, since the index Mk1 on the 2D model image M2 and the index Mk2 on the 3D image M1 correspond to each other, the operator can surely grasp the observation state by referring to both. Of course, the observation state can be grasped from one image.
The 3D / 2D
The
位置方向取得回路25は、磁場発生装置7を駆動する駆動回路27を制御して、磁場発生装置7に所定の磁場を発生させ、その磁場を磁気センサ13により検出し、その検出された磁場の検出信号から、対物光学系10の視点となる位置座標(x、y、z)と視線方向となる配向(すなわちオイラー角(ψ、θ、φ))のデータ、すなわち視点の位置情報及び視線方向情報を第1の座標系(X0Y0Z0)においてリアルタイムで生成する。すなわち、位置方向取得回路25は、磁気センサ13からの位置情報及び方向情報を取得して、対物光学系10の視点の位置情報と視線方向情報(簡略化して位置視線方向情報、又は位置方向情報とも言う)とを取得する情報取得部を構成する。
CPU21は、画像取込回路24が取り込んだ内視鏡画像(の情報)と、位置方向取得回路25が検出した位置方向情報から算出された位置方向情報とを(例えば座標変換回路21fにより球体の中心O2を基準とした第2の座標系(X2Y2Z2)に変換した後)関連付けた関連付け情報を、メモリ22に記憶する。なお、第2の座標系(X2Y2Z2)に変換しない状態でメモリ22に記憶しても良い。The position /
The
メモリ22は、画像取込回路24が取り込んだ上記内視鏡画像と、該内視鏡画像を取り込んだ際の位置方向情報とを関連付ける関連付け情報を、メモリ22内の例えば3D/2D画像記憶部22dに記憶しても良い(図2の図示例)し、又はメモリ22における内視鏡画像記憶部22a又は位置方向情報記憶部22bが関連付け情報記憶部の機能を持つようにしても良い。又は、メモリ22とは別体の記憶デバイスにより関連付け情報記憶部を形成しても良い。
The
図6Aは膀胱B内部に内視鏡2の挿入部2bの先端部2dを挿入し、先端部2d内の対物光学系10等により膀胱Bの内壁を観察する様子を示し、図6Bは図6Aの観察状態に対応して、2Dモデル画像M2上に、指標が付加された(関連付け)画像が生成される様子を示す。
膀胱Bの内壁は、中心をO2とした半径Rの球体で近似され、また、内壁上の各位置は、中心O2を基準(原点)とした第2の座標系(X2Y2Z2)により扱い易くなる。FIG. 6A shows a state in which the
The inner wall of the bladder B is approximated by a sphere having a radius R with the center being O 2, and each position on the inner wall is a second coordinate system (X 2 Y 2 Z with the center O 2 as a reference (origin)). 2 ) It becomes easier to handle.
また、上述したように先端部2dに配置された対物光学系10の視点Pvの位置及び視線方向(光軸方向)Vの情報は、位置方向取得回路25を用いて算出され、第2の座標系(X2Y2Z2)の情報に変換された後、内視鏡画像と関連付けて記憶される。また、位置方向取得回路25(の撮像情報取得部25b)は、対物光学系10の焦点距離f、撮像素子11の画素数、画角等の撮像情報を取得する。
図6Aに示す例では、例えば視点(の位置)をPvaからPvbに変えると共に、視点から内壁までの距離をLaからLbに変えて観察する様子を示す。図6Aに示すように視点から内壁までの距離Laが大きい場合には、内壁上における視野範囲(観察される観察範囲)Aaが大きくなり、距離が小さい場合には、内壁上における視野範囲(観察される範囲)Abが小さくなる。
このように距離に応じて内壁上における視野範囲(観察範囲)が変化するために、本実施形態においては、指標生成回路21bは、距離の大きさに応じて、又は内壁上における視野範囲の大きさに応じて指標の表示形態、具体的には指標の表示色を変更する。このため、指標生成回路21bは、距離の大きさ、又は視野範囲の大きさに応じて指標の表示色を変更する指標色変更部(指標色変更回路)の機能を持つ。また、図6Bに示すように指標生成回路21bは、距離の大きさ、又は視野範囲の大きさに応じて指標の大きさ(サイズ)を変更する指標サイズ変更部(指標サイズ変更回路)の機能を持つ。In addition, as described above, the information on the position of the viewpoint Pv and the line-of-sight direction (optical axis direction) V of the objective
In the example shown in FIG. 6A, for example, the viewpoint (position) is changed from Pva to Pvb and the distance from the viewpoint to the inner wall is changed from La to Lb for observation. As shown in FIG. 6A, when the distance La from the viewpoint to the inner wall is large, the visual field range (observed observation range) Aa on the inner wall becomes large, and when the distance is small, the visual field range (observation on the inner wall) Range) Ab becomes smaller.
Thus, since the visual field range (observation range) on the inner wall changes according to the distance, in the present embodiment, the
図6Aの観察状態に対応して、例えば2Dモデル画像M2上には、図6Bに示すように指標Mk1が生成される。
図6Bに示す2Dモデル画像M2上の指標Mk1は、図6Aにおける視点Pvaから視線方向V上となる内壁上の位置Psを中心とした領域Aaに対応する指標Mk1_Aaと、視点Pvbから視線方向V上となる内壁上の位置Psを中心とした領域Abに対応する指標Mk1_Abと、からなる。
また、2Dモデル画像M2上の指標Mk1_Aa、指標Mk1_Abは、内壁上の位置Psに対応した2Dモデル画像M2上の位置(図6BではPs′)に、領域Aa、領域Abに対応したサイズでそれぞれ生成される。又は、指標Mk1_Aa、指標Mk1_Abは、内壁上の領域Aa、領域Abに対応した2Dモデル画像M2上の領域に(領域Aa、領域Abのサイズを反映したサイズで)それぞれ生成される。
図6Aでは、簡単化のために、視線方向Vが同じ状態で距離を変えた場合を示すが、視線方向Vが異なれば、内壁上の位置Psも異なり、従って2Dモデル画像M2上の指標Mk1_Aa、Mk1_Abの中心位置、領域も異なる。Corresponding to the observation state of FIG. 6A, for example, an index Mk1 is generated on the 2D model image M2 as shown in FIG. 6B.
The index Mk1 on the 2D model image M2 shown in FIG. 6B is the index Mk1_Aa corresponding to the area Aa centered on the position Ps on the inner wall that is on the line-of-sight direction V from the viewpoint Pva in FIG. And an index Mk1_Ab corresponding to a region Ab centered on the position Ps on the upper inner wall.
Further, the index Mk1_Aa and the index Mk1_Ab on the 2D model image M2 are respectively positioned at positions on the 2D model image M2 corresponding to the position Ps on the inner wall (Ps ′ in FIG. 6B) with sizes corresponding to the areas Aa and Ab. Generated. Alternatively, the index Mk1_Aa and the index Mk1_Ab are respectively generated in a region on the 2D model image M2 corresponding to the region Aa on the inner wall and the region Ab (with a size reflecting the size of the region Aa and the region Ab).
For simplification, FIG. 6A shows a case where the distance is changed while the line-of-sight direction V is the same. However, if the line-of-sight direction V is different, the position Ps on the inner wall is also different, and thus the index Mk1_Aa on the 2D model image M2 , Mk1_Ab center positions and regions are also different.
また、図6Bに示すように2Dモデル画像M2上において指標Mk1_Aa、Mk1_Abが重なるような場合においては、距離がより小さい状態で観察した観察済みの領域を示す指標Mk1_Abが上側となるように指標が生成され、かつ表示される。
また、図6Bに示すように内壁までの距離に応じて、それぞれ異なる色で指標を表示する画像を生成する。
このため、指標生成回路21b又は指標生成回路21bにより生成された指標を3D画像M1又は2Dモデル画像M2において重畳する画像生成回路21eは、内壁までの距離を、予め用意された複数の距離範囲のいずれの距離範囲に属する(又は含まれる)かの判定部の機能を持つ。図6Bに示す例では、3D画像M1又は2Dモデル画像M2において重畳する指標を表示する場合の距離範囲Lsを、例えばLs≧L5>L4>L3>L2>L1の5個の距離範囲Li(i=1,2,…,5)に区分けする。Further, as shown in FIG. 6B, when the indices Mk1_Aa and Mk1_Ab overlap on the 2D model image M2, the index is set so that the index Mk1_Ab indicating the observed region observed with a smaller distance is on the upper side. Generated and displayed.
In addition, as shown in FIG. 6B, an image that displays an index with a different color is generated according to the distance to the inner wall.
For this reason, the image generation circuit 21e that superimposes the index generated by the
そして、算出された距離Lが最も小さい距離範囲L1以内では赤、次に大きい距離範囲L2では橙、次に大きい距離範囲L3では黄、次に大きい距離範囲L4では緑、次に大きい距離範囲L5では青の色を割り当てる。図6Bに示すように2Dモデル画像M2上に、指標Mk1を表示した場合、指標の表示形態を表す色がどの距離範囲に含まれるかを示すカラーバーCを、指標Mk1の周辺に表示する。カラーバーCにおける赤など色の左側の斜線は、実際には赤などの色が割り当てられる。
なお、図6BではカラーバーC内での矢印により、暖色系の色程、距離が小さい(内壁に近い)ことを示している。図6Bに示すように5個の距離範囲に区分けする場合に限定されるものでなく、より少ない個数、又はより多い個数に区分けしても良い。また、術者等のユーザが入力装置30から区分けする個数を選択することができるようにしても良い。The calculated distance L is red within the smallest distance range L1, orange in the next largest distance range L2, yellow in the next largest distance range L3, green in the next largest distance range L4, and next largest distance range L5. Let's assign the blue color. When the index Mk1 is displayed on the 2D model image M2 as shown in FIG. 6B, a color bar C indicating in which distance range the color representing the display mode of the index is included is displayed around the index Mk1. The diagonal line on the left side of the color such as red in the color bar C is actually assigned a color such as red.
In FIG. 6B, the arrow in the color bar C indicates that the warm color and the distance are small (close to the inner wall). As shown in FIG. 6B, the present invention is not limited to the case of dividing into five distance ranges, and may be divided into a smaller number or a larger number. In addition, a user such as an operator may be able to select the number to be sorted from the
また、後述するように、視点Pvから視線方向V上となる内壁の位置Psまでの距離Lに応じて、予め設定したテーブルから算出される半径rの指標を2Dモデル画像(膀胱シェーマ)M2上等に表示するようにしても良い。
このため、距離Lの値と、対応する指標の半径rの大きさとを対応付けた上記テーブルを例えばメモリ22が格納しても良い。メモリ22以外の記憶デバイスが上記テーブルを備える構成にしても良い。例えば指標生成回路21b又は画像生成回路21eがテーブルを有する記憶デバイスを備える構成にしても良い。また、図2においてはCPU21を用いて距離算出回路21a、指標生成回路21b、位置算出回路21c、3D/2D画像生成回路21d、画像生成回路21e、座標変換回路21f、位置合わせ回路21gを形成した構成を示しているが、専用の電子回路等のハードウェアを用いて構成しても良い。Further, as will be described later, an index of the radius r calculated from a preset table according to the distance L from the viewpoint Pv to the inner wall position Ps on the line-of-sight direction V is set on the 2D model image (bladder schema) M2. Or the like.
For this reason, for example, the
本発明の第1の実施形態の医療装置1は、所定の管腔臓器の形状を表す情報を記録する記憶部を形成する患者画像情報記憶部22c(又はメモリ22)と、前記所定の管腔臓器内に設けられた所定の視点の位置情報と視線方向情報を取得する情報取得部を形成する位置方向取得回路25と、前記位置情報及び前記視線情報を、所定の管腔臓器の3次元画像情報の座標系に合わせ込む位置合わせ部を形成する位置合わせ回路21gと、前記位置合わせ部によって前記3次元画像情報に対して合わせ込まれた前記位置情報及び前記視線情報に基づき、前記所定の視点の視線方向を延長したときに前記所定の管腔臓器の内壁と交差する位置を算出する位置算出部を形成する位置算出回路21cと、前記位置算出部の位置と前記所定の視点までの距離情報を算出する距離算出部を形成する距離算出回路21aと、前記距離算出部によって取得された前記距離情報に基づき規定される指標を生成する指標生成部を形成する指標生成回路21bと、前記位置算出部の算出結果に基づき、前記所定の管腔臓器の3次元画像又は当該所定の管腔臓器を展開した2次元モデル画像上において、前記指標と前記内壁の位置情報とを関連付けた画像(関連付け画像)を生成する画像生成部を形成する画像生成回路21eと、を備えることを特徴とする。
The
次に本実施形態の動作を図7のフローチャートを参照して以下に説明する。
医療装置1が動作状態になると、最初のステップS1において、術者は初期設定を行う。術者は、入力装置30から、膀胱B内を観察する場合において、観察済みの領域であることを示す指標を表示するか否かの条件(具体例としては視点から膀胱Bの内壁までの距離の閾値TL)を設定する。閾値TLが設定されると、この閾値TL以内の距離範囲において、指標が生成される。術者は、術者の判断においてこの閾値TLを設定できるが、予め用意された設定値(例えば後述する30mm)を用いるようにしても良い。
次のステップS2において術者は、内視鏡2を患者Pの尿道内に挿入し、既知となる位置において、座標系の位置合わせを行う。先端部2dの磁気センサ13に対して位置方向取得回路25が取得する位置情報及び視線方向情報は、第1の座標系(X0Y0Z0)の下での情報となるために、膀胱B内で用いる第2の座標系(X2Y2Z2)との位置合わせを行う。Next, the operation of this embodiment will be described below with reference to the flowchart of FIG.
When the
In the next step S2, the operator inserts the
本実施形態においては、第1の座標系(X0Y0Z0)と、中間座標系(X1Y1Z1)との位置合わせを行い、さらに中間座標系(X1Y1Z1)と、第2の座標系(X2Y2Z2)との位置合わせを行うことにより第1の座標系(X0Y0Z0)と第2の座標系(X2Y2Z2)との位置合わせを行う。これにより、位置方向取得回路25が取得する位置情報及び視線方向情報は、座標変換回路21fにより第2の座標系(X2Y2Z2)における位置情報及び視線方向情報に変換される状態となる。
次のステップS3において術者は、内視鏡2の先端部2dを膀胱B内に挿入する。ステップS4に示すように位置方向取得回路25は、先端部2dの対物光学系10の視点と視線方向の情報を取得し、ステップS5に示すように座標変換回路21fは、この情報を第2の座標系(X2Y2Z2)における視点と視線方向の情報に変換する。
次のステップS6において距離算出回路21aは、視線方向上となる膀胱Bの内壁の位置(図4の位置Ps)を算出し(上述した式(15)、(16))、視点から内壁(上の位置)までの距離L(図6AではLa又はLb)を算出する。In this embodiment, the first coordinate system (X 0 Y 0 Z 0 ) and the intermediate coordinate system (X 1 Y 1 Z 1 ) are aligned, and the intermediate coordinate system (X 1 Y 1 Z 1). ) And the second coordinate system (X 2 Y 2 Z 2 ), thereby aligning the first coordinate system (X 0 Y 0 Z 0 ) and the second coordinate system (X 2 Y 2 Z 2). ). Thereby, the position information and the line-of-sight direction information acquired by the position /
In the next step S3, the surgeon inserts the
In the next step S6, the
次のステップS7において距離算出回路21aは、算出した距離Lが閾値TL以内か否かを判定する。距離Lが閾値TL以内と判定した場合には、次のステップS8において指標生成回路21bは、距離Lに応じた(表示形態としての)色の指標を生成する。例えば図6Bに示す指標Mk1_Abのような色の指標を生成する。
次のステップS9において画像生成回路21eは、2Dモデル画像M2上と3D画像M1上とにおいて、内壁上の視野範囲に対応した領域に指標を付加(又は重畳)した画像を生成する。生成された画像は表示I/F23を経てモニタ6に出力され、次のステップS10に示すようにモニタ6の表示画面上に表示される。また、ステップS11においてメモリ22は、ステップS9において生成された画像を記憶する。ステップS11の処理の後のステップS12においてCPU21は、入力装置30から観察終了の指示が入力されたか否かを判定し、入力されない場合には、ステップS4の処理に戻り、入力された場合には、図7の処理を終了する。In the next step S7, the
In the next step S9, the image generation circuit 21e generates an image in which an index is added (or superimposed) to a region corresponding to the visual field range on the inner wall on the 2D model image M2 and the 3D image M1. The generated image is output to the
上記ステップS7において距離が閾値TLより大きい判定結果の場合にはステップS13においてCPU21は、入力装置30の指標生成スイッチ30aがONされたか否かを判定し、ONされていない場合には、ステップS4の処理に戻る。
一方、入力装置30の指標生成スイッチ30aがONされた場合には、次のステップS14において指標生成回路21bは、距離Lの値に応じた(表示形態としての)色の指標を生成し、ステップS9の処理に移る。ステップS14の場合は、例えば図6Aにおいて視点をPvcで示し、この場合には、Lcで示す距離が閾値TLよりも大きな値となる。そして、この場合の内壁上における視野範囲を形成する領域Acは広い領域となり、図6Bにおける2点鎖線で示すようにこの視野範囲Acに対応する2Dモデル画像M2上の領域が特定の色(例えば紫の色)の指標Mk1_Acで表示される。
図8は、図7におけるステップS9の詳細を示す。ステップS9の処理が開始すると、ステップS21において画像生成回路21dは、メモリ22に記憶された時間的に以前に生成された過去の(関連付け)画像、つまり過去の指標が付加された画像を読み出す。If the determination result in step S7 is that the distance is larger than the threshold value TL, the
On the other hand, when the index generation switch 30a of the
FIG. 8 shows details of step S9 in FIG. When the process of step S9 is started, in step S21, the
次のステップS22において画像生成回路21dは、現在の指標、つまりステップS9の直前のステップS8において生成された現在の観察状態の指標が過去の指標と重なるか否かを判定する。重なる判定結果の場合には次のステップS23において画像生成回路21dは、距離が小さい方の指標が上側となるように、換言すると距離範囲が小さい方の指標が上側となるように、現在の指標を過去の指標に重ねた画像を生成する。そして、図8の処理を終了する。ステップS23の処理は、図6Bに示した内容となる。
一方、ステップS22において、重ならない場合には、ステップS24において画像生成回路21dは、現在の指標を過去の指標に追加して現在の画像を生成し、図8の処理を終了する。
なお、上述の実施形態においては、指標を2Dモデル画像M2上と3D画像M1上とにおいて付加する場合で説明したが、指標を2Dモデル画像M2上又は3D画像M1上において付加するようにしても良い。In the next step S22, the
On the other hand, if they do not overlap in step S22, the
In the above-described embodiment, the case where the index is added on the 2D model image M2 and the 3D image M1 has been described. However, the index may be added on the 2D model image M2 or the 3D image M1. good.
図6A、図6Bにおいて説明した例では、内壁上での視野範囲にほぼ一致する大きさの指標を生成する場合を説明したが、図9A等で説明するように、テーブルに格納されたデータを参照することにより、算出された距離Lの値から自動的に指標の大きさ(より具体的には指標の円形サイズ)を決定するようにしても良い。
図9Aは、距離Lに応じて指標を設定する処理を示し、図9Bはその動作の説明図を示し、図9Cは、テーブルの内容を示す。
図9Aの処理が開始すると、最初のステップS41において位置算出回路21cは、視点Pvから視線方向V上となる膀胱Bの内壁の位置Psを求め、膀胱シェーマ上での位置Psに相当する位置X(図6BではPs′)を求める。
次のステップS42において距離算出回路21aは、内視鏡2の先端の視点Pvと位置Psとの距離Lを求める。
次のステップS43において距離算出回路21aは、距離Lが予め設定された閾値TLとしての30mm以下か否かを判定する。In the example described with reference to FIGS. 6A and 6B, the case has been described in which an index having a size that substantially matches the visual field range on the inner wall has been described. However, as illustrated in FIG. By referencing, the size of the index (more specifically, the circular size of the index) may be automatically determined from the value of the calculated distance L.
FIG. 9A shows processing for setting an index according to the distance L, FIG. 9B shows an explanatory diagram of the operation, and FIG. 9C shows the contents of the table.
When the process of FIG. 9A is started, in the first step S41, the
In the next step S42, the
In the next step S43, the
距離Lが30mm以下の判定結果の場合には次のステップS44において指標生成回路21bは、図9Cのテーブルを参照し、距離Lに対応する半径rを求める。
次のステップS45において指標生成回路21b又は画像生成回路21eは、シューマ上に位置Xを中心とした半径rの指標Mk1を描く(付加する)。このステップS45の処理の後、ステップS41の処理に戻る。なお、ステップS43において距離Lが30mmより大きい場合にもステップS41の処理に戻る。
図9Bの図示例では、内壁面に垂直な視野方向Vから内壁を観察した場合には内壁上の視野範囲に近い半径rの円形の指標Mk1を生成する場合を示しているが、内壁面に垂直でない場合に対しても距離Lの値から自動的に生成する指標のサイズを設定(決定)する。このために、簡単かつ短時間に指標Mk1を生成できる。また、術者は、殆どリアルタイムで、内壁の観察範囲を確認できる。If the determination result is that the distance L is 30 mm or less, in the next step S44, the
In the next step S45, the
In the illustrated example of FIG. 9B, when the inner wall is observed from the visual field direction V perpendicular to the inner wall surface, a circular index Mk1 having a radius r close to the visual field range on the inner wall is generated. The size of the index that is automatically generated from the value of the distance L is set (determined) even when it is not vertical. Therefore, the index Mk1 can be generated easily and in a short time. In addition, the surgeon can confirm the observation range of the inner wall almost in real time.
このように動作する本実施形態によれば、管腔臓器としての膀胱Bの内壁を観察する場合、内壁を観察する観察状態を反映する距離に応じた表示形態の指標を2Dモデル画像M2上又は3D画像M1上とにおいて付加するようにしているので、術者は観察済みとなる領域においても指標の表示形態から実質的に観察した観察済みの状態であるか否かを判断し易い。
従って、術者は、膀胱Bの内壁等の観察対象範囲を観察しようとした場合、2Dモデル画像M2上又は3D画像M1上に指標を付加した画像を参照することにより、観察対象範囲内における一部の領域を見逃したり、過度に重複して観察することを防止して、効率良く観察することができる。
なお上述した実施形態において、例えば図2に示すように入力装置30に指標の表示形態を選択する表示形態選択部を形成する表示形態選択スイッチ(又はボタン)30bを設け、指標の表示形態を選択することができるようにしても良い。表示形態選択スイッチ30bの選択操作による選択信号は、CPU21に入力され、指標生成回路21bは、選択信号に対応した指標を生成する。
例えば、術者は、上述した距離又は視野範囲に応じて、指標の色を変えて表示する表示形態の他に、視線方向と、視線方向上に対向する内壁面に直交する垂線との成す角θに応じて指標の表示形態を変えるようにしても良い。
以下、距離又は(内壁上での)視野範囲の表示形態が選択された状態において、更に視線方向が内壁面の垂線と成す角θに応じて表示形態を変更する選択がされる場合の処理を説明する。この場合には、図7の処理を若干、変更した図10Aに示す処理となり、異なる処理の部分のみを説明する。
図10Aは、視線方向が内壁面の垂線と成す角(視線角とも言う)θに応じて表示形態を変更する処理を示す。例えば図7におけるステップS9の直前のステップS31においてCPU21は、表示形態選択スイッチ30bがONか否かの判定を行う。つまり、CPU21は、視線方向と内壁面との成す角θに応じて表示形態を変更する表示形態選択スイッチ30bがONか否かの判定を行う。According to this embodiment that operates in this way, when observing the inner wall of the bladder B as a luminal organ, an indicator of the display form corresponding to the distance reflecting the observation state of observing the inner wall is displayed on the 2D model image M2 or Since it is added on the 3D image M1, it is easy for the surgeon to determine whether the observed state is substantially observed from the indicator display form even in the observed region.
Therefore, when an operator intends to observe the observation target range such as the inner wall of the bladder B, the operator refers to the image with the index added on the 2D model image M2 or the 3D image M1, thereby reducing the range within the observation target range. It is possible to efficiently observe by preventing the region of the portion from being overlooked or excessively overlapping.
In the embodiment described above, for example, as shown in FIG. 2, the
For example, in addition to the display form in which the surgeon changes the color of the index according to the distance or field of view described above, the angle formed by the line-of-sight direction and the perpendicular line perpendicular to the inner wall surface facing the line-of-sight direction The display form of the indicator may be changed according to θ.
Hereinafter, in a state where the display form of the distance or the visual field range (on the inner wall) is selected, the processing when the display form is selected to be changed according to the angle θ formed by the line-of-sight direction and the perpendicular to the inner wall surface is performed. explain. In this case, the processing of FIG. 7 is slightly changed to the processing shown in FIG. 10A, and only different processing portions will be described.
FIG. 10A shows processing for changing the display form in accordance with an angle θ (also referred to as a line-of-sight angle) θ formed by a line-of-sight direction and a perpendicular to the inner wall surface. For example, in step S31 immediately before step S9 in FIG. 7, the
視線方向と内壁面との成す角θに応じて表示形態を変更する選択がされた場合には、次のステップS32において指標生成回路21bは、視線方向と内壁面と成す角θを算出する。
図10Bは、角θを算出する様子を示す。上述した式(15)と式(16)から視線方向V上に対向する内壁面上の位置Psが位置算出回路21cにより算出される。また、この位置Psでの内壁の平面は中心O2を原点とした位置ベクトルPsと垂直な面となる。このために、例えば位置算出回路21cは、角θを、π/2−θ′、但しθ′=arccos(V・Ps/|Ps|)により算出する。算出結果は、指標生成回路21bに送られる。
次のステップS33において指標生成回路21bは、算出された角θが、角θの閾値θth以下となるか否かを判定する。閾値θthは、例えば80度〜95度程度の範囲内に設定される。When the display form is selected to be changed according to the angle θ formed between the line-of-sight direction and the inner wall surface, in the next step S32, the
FIG. 10B shows how the angle θ is calculated. The
In the next step S33, the
ステップS33において算出された角θが、閾値θth以下となる場合には、次のステップS33において指標生成回路21bは、ステップS8又はステップS14において生成された指標の形状を角θの値に応じて変形し、変形した指標を画像生成回路21eに送る。指標生成回路21bは、例えば角θが大きい場合には、円形に近い形状の指標を生成し、角θが小さくなる程、扁平した長円形状の指標Mkを生成する。
図10Cでは、内壁上での視野範囲よりも、例えば1〜2割狭くした長円形状の指標Mkを生成する例を示す。斜めからの観察であるために、その場合の視野範囲全域を観察済みとしないで、その内側となる領域を観察済みの領域として示すように縮小している。この縮小する割合を角θの値に応じて予めテーブルデータにより設定しても良い。
画像生成回路21eは図7のステップS9に示すように入力される指標(本説明の場合ではMk)を用いて2Dモデル画像M2上に指標Mk1、3D画像上に指標Mk2を付加した画像を生成する。When the angle θ calculated in step S33 is equal to or smaller than the threshold θth, in the next step S33, the
FIG. 10C shows an example in which an elliptical index Mk that is, for example, 10 to 20% narrower than the visual field range on the inner wall is generated. Since the observation is performed from an oblique direction, the entire visual field range in that case is not observed, but is reduced so that the inner region is shown as the observed region. The reduction ratio may be set in advance by table data according to the value of the angle θ.
The image generation circuit 21e generates an image in which the index Mk1 is added to the 2D model image M2 and the index Mk2 is added to the 3D image using the input index (Mk in the case of this description) as shown in step S9 of FIG. To do.
図10Cは、図10Bのように視線方向が内壁となす角θが閾値θthより小さい状態で内壁を観察した場合における2Dモデル画像M2上に指標Mk1を付加した画像を示す。なお、図10Cでは、指標Mk1′も示し、この指標Mk1′は、例えば図10Bにおける紙面に垂直な方向から内壁を斜めに観察した場合に相当する指標を表す。
図10AにおけるステップS31において表示形態の選択がONされていない場合には、(図7の場合と同様に)ステップS9の処理に移る。また、ステップS33において角θが閾値θthより大きい場合には内壁面に垂直に近い方向から観察しているので、図7の場合と同様にステップS9の処理に移る。
その他は、図7の場合と同様の処理となる。図10Aのような処理を行うことにより、術者は内壁を斜めから観察する状態を識別することができ、術者は図10Cの画像において長円形に表示された領域に対しては、術者の判断により、更に内壁に垂直に近い方向から観察すべきか否かを容易に知ることができる。FIG. 10C shows an image in which the index Mk1 is added to the 2D model image M2 when the inner wall is observed in a state where the angle θ formed by the line of sight with the inner wall is smaller than the threshold θth as shown in FIG. 10B. In FIG. 10C, an index Mk1 ′ is also shown, and this index Mk1 ′ represents an index corresponding to the case where the inner wall is observed obliquely from a direction perpendicular to the paper surface in FIG. 10B, for example.
When the selection of the display form is not turned on in step S31 in FIG. 10A, the process proceeds to step S9 (similar to the case in FIG. 7). Further, when the angle θ is larger than the threshold θth in step S33, the observation is made from a direction perpendicular to the inner wall surface, and therefore the process proceeds to step S9 as in the case of FIG.
The other processes are the same as those in FIG. By performing the processing as shown in FIG. 10A, the operator can identify the state of observing the inner wall from an oblique direction. The operator can perform the operation on the region displayed in an oval shape in the image of FIG. 10C. This makes it possible to easily know whether or not to observe from a direction perpendicular to the inner wall.
なお、上述した表示形態選択スイッチ30bによる選択により、図11A,図11B,図11Cのように指標の表示形態を選択できるようにしても良い。
図11Aにおいては、視点から内壁までの距離の値により、例えば一定の大きさの指標の表示色を変更する。
図11Bにおいては、図10A〜図10Cに示した場合と類似して、角θが小さい程、指標の形状が円形に近い形状、角θが大きい程、指標の形状が長円形に近い形状にする。
図11Cは、内壁上の視野範囲に応じて視野範囲が小さい程、指標を小さな半径の円形、視野範囲が大きい程、指標を大きな半径の円形とする。
また、図11A〜図11Cにおいて示した指標の表示形態を組み合わせた表示形態を変更しても良い。
本実施形態では、膀胱Bの球体としたが、膀胱Bの形状を楕円体、円錐体等の既知の形状としても良い。Note that the display form of the index may be selected as shown in FIGS. 11A, 11B, and 11C by the selection by the display
In FIG. 11A, for example, the display color of an index having a certain size is changed according to the value of the distance from the viewpoint to the inner wall.
In FIG. 11B, similar to the case shown in FIGS. 10A to 10C, the smaller the angle θ, the closer the shape of the index, and the larger the angle θ, the closer the shape of the index to an oval shape. To do.
In FIG. 11C, the smaller the visual field range according to the visual field range on the inner wall, the smaller the radius of the index, and the larger the visual field range, the larger the radius of the index.
Moreover, you may change the display form which combined the display form of the parameter | index shown in FIG. 11A-FIG. 11C.
In this embodiment, the sphere of the bladder B is used, but the shape of the bladder B may be a known shape such as an ellipsoid or a cone.
上述した第1の実施形態では、3D画像M1及び2Dモデル画像M2のサイズは、所定の標準サイズであると仮定して、例えば先端部2dを頂部に接触させて膀胱の入り口から頂部までの距離を求めることができるようにしているが、撮像された内視鏡画像を2Dモデル画像上に貼り付ける位置の精度の向上、及び3D画像上に表示する先端部2dの位置及び形状の精度向上のために、画像処理装置5が有するステレオ計測機能を利用して、患者の膀胱Bの形状を測定(計測)し、その測定された形状を3D画像M1としてもよい。以下、ステレオ計測機能を利用する変形例を説明する。
膀胱Bの内視鏡画像の位置(図12では病変部AAの位置Pa(xa,ya,za))に対応する3D画像M1上の位置を膀胱Bの形状内に存在する所定の半径R2の球体内面上に投影するとき、上述した式(15)と式(16)は、それぞれ次の式(17)と式(18)に置き換えられる。図12は、第2の座標系(X2Y2Z2)において球体の内面上の座標を説明するための図である。図13は、先端部2dの位置と方向ベクトルから第2の座標系(X2Y2Z2)における位置P2と方向V2と、内壁面上の位置Psを説明するための図である。In the first embodiment described above, assuming that the sizes of the 3D image M1 and the 2D model image M2 are predetermined standard sizes, for example, the distance from the bladder entrance to the top by bringing the
A position on the 3D image M1 corresponding to the position of the endoscopic image of the bladder B (the position Pa (x a , y a , z a ) of the lesioned part AA in FIG. 12) is present within the shape of the bladder B When projecting onto the inner surface of the sphere having the radius R2, the above formulas (15) and (16) are replaced by the following formulas (17) and (18), respectively. FIG. 12 is a diagram for explaining the coordinates on the inner surface of the sphere in the second coordinate system (X 2 Y 2 Z 2 ). FIG. 13 is a diagram for explaining the position P 2 and the direction V 2 in the second coordinate system (X 2 Y 2 Z 2 ) and the position Ps on the inner wall surface from the position and direction vector of the
先端部2dの第2の座標系(X2Y2Z2)における位置P2と方向V2が決定すると、得られた内視鏡画像の、球体の内面との交点の座標を求める。そのために、次の式(17)と式(18)を満たす係数kを算出し、第2の座標系(X2Y2Z2)における位置Psを求める。
求めた座標Psの位置に基づいて、第1の実施の形態と同様に2Dモデル画像M2上または3D画像M1上に指標を付加する。
従って、術者は、膀胱Bの内壁等の観察対象範囲を観察しようとした場合、2Dモデル画像M2上又は3D画像M1上に指標を付加した画像を参照することにより、観察対象範囲内における一部の領域を見逃したり、過度に重複して観察することを防止して、効率良く観察することができる。
なお、上述した変形例を含む第1の実施形態において説明した内容を部分的に組み合わせて構成される実施形態等も本発明に属する。
さらに、検査前にCT、MRI、超音波等の装置で撮影した画像を利用して膀胱Bの内壁形状を取得するようにしても良い。Based on the position of the obtained coordinates Ps, an index is added on the 2D model image M2 or the 3D image M1 as in the first embodiment.
Therefore, when an operator intends to observe the observation target range such as the inner wall of the bladder B, the operator refers to the image with the index added on the 2D model image M2 or the 3D image M1, thereby reducing the range within the observation target range. It is possible to efficiently observe by preventing the region of the portion from being overlooked or excessively overlapping.
Note that an embodiment configured by partially combining the contents described in the first embodiment including the above-described modification also belongs to the present invention.
Furthermore, the inner wall shape of the bladder B may be acquired using an image taken by an apparatus such as CT, MRI, or ultrasound before the examination.
本出願は、2014年11月11日に日本国に出願された特願2014―229103号を優先権主張の基礎として出願するものであり、上記の開示内容は、本明細書、請求の範囲、図面に引用されたものとする。 This application is filed on the basis of the priority claim of Japanese Patent Application No. 2014-229103 filed in Japan on November 11, 2014, and the above-mentioned disclosure content includes the present specification, claims, It shall be cited in the drawing.
本発明の一態様の医療装置は、所定の管腔臓器内にある内視鏡に対して、所定の視点における位置情報と視線方向情報を取得する情報取得部と、前記位置情報及び前記視線方向情報を、所定の管腔臓器の3次元画像情報の座標系に合わせ込む位置合わせ部と、前記位置合わせ部によって前記3次元画像情報に対して合わせ込まれた前記位置情報及び前記視線方向情報に基づき、前記所定の視点から前記所定の管腔臓器の内壁までの距離情報を算出する距離算出部と、前記距離算出部によって算出された前記距離情報に基づき規定される複数の指標を生成する指標生成部と、前記所定の管腔臓器の3次元画像又は前記所定の管腔臓器を展開した2次元モデル画像上において、前記複数の指標と前記内壁の位置情報との関連付けを行い、前記内視鏡の観察状況に応じて前記複数の指標の位置が重なる場合、前記距離情報が小さい指標が優先的に表示されるように関連付けた画像を生成する画像生成部と、を備える。 One aspect of the medical device of the present invention is to provide an endoscope in a predetermined luminal organ inside unit, an information acquisition unit that acquires position information and eye direction information in the predetermined viewpoint, the positional information and the viewing direction An alignment unit that aligns information with a coordinate system of three-dimensional image information of a predetermined luminal organ, and the position information and the line-of-sight direction information that are aligned with the three-dimensional image information by the alignment unit A distance calculation unit that calculates distance information from the predetermined viewpoint to the inner wall of the predetermined luminal organ, and an index that generates a plurality of indexes defined based on the distance information calculated by the distance calculation unit a generating unit, before Symbol predetermined luminal organ of the 3-dimensional image or two-dimensional model image on which the expansion of the predetermined tubular organ, to associate the position information of the said plurality of indicators inner wall, said inner Visual If the position of the plurality of indicators overlap in accordance with the observation conditions, and an image generating unit that generates an image index the distance information is smaller it is related as is preferentially displayed.
本発明の一態様の医療装置は、所定の管腔臓器内にある内視鏡に対して、所定の視点における位置情報と視線方向情報を取得する情報取得部と、前記位置情報及び前記視線方向情報を、所定の管腔臓器の3次元画像情報の座標系に合わせ込む位置合わせ部と、前記位置合わせ部によって前記3次元画像情報に対して合わせ込まれた前記位置情報及び前記視線方向情報に基づき、前記所定の視点から前記所定の管腔臓器の内壁までの距離情報を算出する距離算出部と、前記距離算出部によって算出された前記距離情報に基づき規定される複数の指標を生成する指標生成部と、前記所定の管腔臓器の3次元画像又は前記所定の管腔臓器を展開した2次元モデル画像上において、前記複数の指標と前記内壁の位置情報との関連付けを行い、前記内視鏡の観察状況に応じて前記複数の指標の位置が重なる場合、前記距離情報が小さい指標が画像上の上側となるように現在の指標を過去の指標に重ねた画像を生成する画像生成部と、を備える。 A medical device according to an aspect of the present invention includes an information acquisition unit that acquires position information and line-of-sight direction information at a predetermined viewpoint with respect to an endoscope in a predetermined lumen organ, the position information, and the line-of-sight direction An alignment unit that aligns information with a coordinate system of three-dimensional image information of a predetermined luminal organ, and the position information and the line-of-sight direction information that are aligned with the three-dimensional image information by the alignment unit A distance calculation unit that calculates distance information from the predetermined viewpoint to the inner wall of the predetermined luminal organ, and an index that generates a plurality of indexes defined based on the distance information calculated by the distance calculation unit On the three-dimensional image of the predetermined luminal organ or the two-dimensional model image obtained by developing the predetermined luminal organ, the generating unit associates the plurality of indices with the position information of the inner wall, and If the position of the plurality of indicators overlap in accordance with the observation conditions, an image generating unit which index the distance information is small to produce an image superimposed current index so that the upper on the image in the past indicators Is provided.
Claims (14)
前記位置情報及び前記視線情報を、所定の管腔臓器の3次元画像情報の座標系に合わせ込む位置合わせ部と、
前記位置合わせ部によって前記3次元画像情報に対して合わせ込まれた前記位置情報及び前記視線情報に基づき、前記所定の視点の視線方向を延長したときに前記所定の管腔臓器の内壁と交差する位置を算出する位置算出部と、
前記位置算出部の位置と前記所定の視点までの距離情報を算出する距離算出部と、
前記距離算出部によって取得された前記距離情報に基づき規定される指標を生成する指標生成部と、
前記位置算出部の算出結果に基づき、前記所定の管腔臓器の3次元画像又は当該所定の管腔臓器を展開した2次元モデル画像上において、前記指標と前記内壁の位置情報とを関連付けた画像を生成する画像生成部と、
を備えることを特徴とする医療装置。An information acquisition unit for acquiring position information and gaze direction information of a predetermined viewpoint provided in a predetermined luminal organ;
An alignment unit that aligns the position information and the line-of-sight information with a coordinate system of three-dimensional image information of a predetermined luminal organ;
Based on the position information and the line-of-sight information aligned with the three-dimensional image information by the alignment unit, when the line-of-sight direction of the predetermined viewpoint is extended, it intersects the inner wall of the predetermined lumen organ A position calculation unit for calculating a position;
A distance calculation unit for calculating distance information to the position of the position calculation unit and the predetermined viewpoint;
An index generation unit that generates an index defined based on the distance information acquired by the distance calculation unit;
Based on the calculation result of the position calculation unit, an image in which the index and the position information of the inner wall are associated with each other on a three-dimensional image of the predetermined lumen organ or a two-dimensional model image in which the predetermined lumen organ is developed An image generation unit for generating
A medical device comprising:
前記位置合わせ部は、前記情報取得部によって取得された前記対物光学系の位置情報と視線方向情報を、前記所定の管腔臓器における3次元画像情報の座標系に対して合わせ込むことを特徴とする請求項1に記載の医療装置。The viewpoint is a viewpoint of an objective optical system that forms a subject image in the subject,
The alignment unit aligns the position information and the line-of-sight direction information of the objective optical system acquired by the information acquisition unit with respect to a coordinate system of three-dimensional image information in the predetermined luminal organ. The medical device according to claim 1.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014229103 | 2014-11-11 | ||
JP2014229103 | 2014-11-11 | ||
PCT/JP2015/081473 WO2016076262A1 (en) | 2014-11-11 | 2015-11-09 | Medical device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2016076262A1 true JPWO2016076262A1 (en) | 2017-04-27 |
Family
ID=55954347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016528926A Pending JPWO2016076262A1 (en) | 2014-11-11 | 2015-11-09 | Medical equipment |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2016076262A1 (en) |
WO (1) | WO2016076262A1 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017203814A1 (en) * | 2016-05-25 | 2017-11-30 | オリンパス株式会社 | Endoscope device and operation method for endoscope device |
JP6211239B1 (en) * | 2016-05-25 | 2017-10-11 | オリンパス株式会社 | Endoscope device |
JP6906342B2 (en) * | 2017-03-30 | 2021-07-21 | Hoya株式会社 | Endoscope system |
JP7116925B2 (en) * | 2019-03-22 | 2022-08-12 | 株式会社エビデント | Observation device operating method, observation device, and program |
WO2021171464A1 (en) * | 2020-02-27 | 2021-09-02 | オリンパス株式会社 | Processing device, endoscope system, and captured image processing method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014079377A (en) * | 2012-10-16 | 2014-05-08 | Olympus Corp | Observation apparatus, observation support apparatus, observation support method, and observation support program |
WO2014148184A1 (en) * | 2013-03-19 | 2014-09-25 | オリンパスメディカルシステムズ株式会社 | Endoscope system and operation method of endoscope system |
-
2015
- 2015-11-09 WO PCT/JP2015/081473 patent/WO2016076262A1/en active Application Filing
- 2015-11-09 JP JP2016528926A patent/JPWO2016076262A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014079377A (en) * | 2012-10-16 | 2014-05-08 | Olympus Corp | Observation apparatus, observation support apparatus, observation support method, and observation support program |
WO2014148184A1 (en) * | 2013-03-19 | 2014-09-25 | オリンパスメディカルシステムズ株式会社 | Endoscope system and operation method of endoscope system |
Also Published As
Publication number | Publication date |
---|---|
WO2016076262A1 (en) | 2016-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5676058B1 (en) | Endoscope system and method for operating endoscope system | |
JP5810248B2 (en) | Endoscope system | |
JP5771757B2 (en) | Endoscope system and method for operating endoscope system | |
JP5380348B2 (en) | System, method, apparatus, and program for supporting endoscopic observation | |
JP6103827B2 (en) | Image processing apparatus and stereoscopic image observation system | |
US9516993B2 (en) | Endoscope system | |
US10631826B2 (en) | Medical apparatus, medical-image generating method, and recording medium on which medical-image generating program is recorded | |
JP5750669B2 (en) | Endoscope system | |
WO2017159335A1 (en) | Medical image processing device, medical image processing method, and program | |
WO2016076262A1 (en) | Medical device | |
US20170039707A1 (en) | Image processing apparatus | |
US10231601B2 (en) | Medical apparatus for associating index indicating priority corresponding to lesion occurrence frequency with position of inner wall opposing in visual line direction of endoscope the position being one at which image is acquired | |
US20220071711A1 (en) | Devices, systems, and methods for identifying unexamined regions during a medical procedure | |
JP2017205343A (en) | Endoscope device and method for operating endoscope device | |
US9345394B2 (en) | Medical apparatus | |
KR20200132174A (en) | AR colonoscopy system and method for monitoring by using the same | |
JP6335839B2 (en) | Medical device, medical image generation method, and medical image generation program | |
WO2016039292A1 (en) | Endoscope system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20161220 |