JP2001101451A - High-speed three-dimensional image display device and method for interactively designating coordinates within three-dimensional space on three-dimensional image while using the same - Google Patents
High-speed three-dimensional image display device and method for interactively designating coordinates within three-dimensional space on three-dimensional image while using the sameInfo
- Publication number
- JP2001101451A JP2001101451A JP27285099A JP27285099A JP2001101451A JP 2001101451 A JP2001101451 A JP 2001101451A JP 27285099 A JP27285099 A JP 27285099A JP 27285099 A JP27285099 A JP 27285099A JP 2001101451 A JP2001101451 A JP 2001101451A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- dimensional image
- image
- function
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、三次元空間に配置
されるデータ集合を三次元画像として表示する機能を有
する画像処理装置に係り、特に、画像に基づいた各種の
解析アプリケーションのユーザーインターフェースに関
する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus having a function of displaying a data set arranged in a three-dimensional space as a three-dimensional image, and more particularly to a user interface of various analysis applications based on the image. .
【0002】[0002]
【従来の技術】従来公知のこの種の数値計算データや医
療画像装置データに代表される三次元空間に配置される
データは、そのデータ数が非常に多くなる傾向が強く、
データ個々の数値を直接人間が調べることは現実的に不
可能な場合が多い。そのため、三次元データを視覚的に
人間が認識し易い三次元画像として表現することが、多
くの分野で一般的に行われている。このようにして生成
された三次元画像は、単に感覚的に映像として見られる
だけではなく、分野ごとの目的に応じて様々な解析を行
なうための重要な情報として利用される。解析には多く
の方法があるが、三次元的な位置を正確に把握したり、
三次元空間上の距離を測定したり、ある条件によって区
切られた空間の体積を計算したりすることなど共通して
用いられる手法の他、分野ごとに特別に考案された数多
くの解析手法が存在する。2. Description of the Related Art Data arranged in a three-dimensional space typified by conventionally known numerical calculation data and medical image device data tends to have a very large number of data.
In many cases, it is practically impossible for humans to directly examine the numerical values of individual data. Therefore, expressing three-dimensional data as a three-dimensional image that is easily visually recognizable by humans is generally performed in many fields. The three-dimensional image generated in this way is not only viewed intuitively as a video, but is also used as important information for performing various analyzes according to the purpose of each field. There are many methods of analysis, but it is important to know the three-dimensional position accurately,
There are many analysis methods specially devised for each field, in addition to commonly used methods such as measuring the distance in three-dimensional space and calculating the volume of the space divided by certain conditions I do.
【0003】[0003]
【発明が解決しようとする課題】三次元画像を利用して
三次元空間情報を利用した解析を行なう場合、位置・形
状・軌跡などの指定・変更操作は、何らかの入力装置を
用いて1つあるいは複数の三次元座標に対する指定・変
更操作の組み合わせとして行なうことが一般的である。
しかしながら、三次元画像とは言いながらそれを表示す
る出力装置は二次元の情報しか扱うことができず、入力
装置も二次元の座標しか指定できないため、三次元的な
座標の入力は特に奥行き方向の深さ指定において難しい
ものとなっている。各座標の直接数値入力ではもちろん
指定可能であるが、画像を活用した直感的な操作の利点
が完全に失われてしまうので、画像表示解析システムと
して価値が大きく損なわれてしまった。また、特別な機
械・装置を用いた三次元入出力装置が存在するが、非常
に特殊であり、経済性・信頼性・使い易さ、将来にわた
る入手性などの面で多くの問題があり、一般的・実用的
なシステムに達するとは言い難かった。このような三次
元座標指定の困難さは、操作者により多くの修得期間を
要求したり、操作のために大きな精神的・時間的負担を
強いていた。さらに、操作者の意図した内容が正確にシ
ステムに認識されないことも多く、解析結果の信憑性と
いうシステムの最も本質的な価値を損ねる危険性が大き
くなってしまった。When performing an analysis using three-dimensional spatial information using a three-dimensional image, the operation of designating / changing a position, a shape, a trajectory, etc. is performed by one or some input device. It is common to carry out as a combination of designation / change operations on a plurality of three-dimensional coordinates.
However, although an output device that displays a three-dimensional image, although it can only handle two-dimensional information, and an input device can specify only two-dimensional coordinates, input of three-dimensional coordinates is particularly difficult in the depth direction. It is difficult to specify the depth of the object. Although it is of course possible to directly specify each coordinate by numerical input, the advantage of intuitive operation using images is completely lost, and the value as an image display analysis system has been greatly impaired. In addition, there are three-dimensional input / output devices using special machines and devices, but they are very special and have many problems in terms of economy, reliability, ease of use, availability in the future, etc. It was hard to say that it reached a general and practical system. Such difficulty in specifying the three-dimensional coordinates has required a longer learning period for the operator and imposes a great mental and time burden on the operation. Furthermore, the contents intended by the operator are often not accurately recognized by the system, and the danger of impairing the most essential value of the system, namely, the credibility of the analysis result, has increased.
【0004】本発明は、三次元空間における点座標指定
という操作を、一般的に入手可能な入出力装置を利用し
て簡便・迅速・正確に行えるようにすることにより、以
上のような課題を解決するものである。[0004] The present invention solves the above-mentioned problems by enabling the operation of specifying point coordinates in a three-dimensional space to be performed simply, quickly, and accurately using a commonly available input / output device. Is the solution.
【0005】[0005]
【課題を解決するための手段】上記課題を達成するため
に、請求項1記載の三次元画像高速表示装置の発明は、
数値計算や画像処理の制御といった種々の処理を行なう
CPUと、三次元格子データ等を格納する第1記憶装置
と、処理プログラムや既知データを格納する第2記憶装
置と、表示装置と、入力装置とを備えた三次元画像表示
装置において、前記ROM内にボリウムレンダリング処
理プログラムと三次元高速処理プログラムとを格納した
ことを特徴としている。In order to achieve the above object, the invention of a three-dimensional image high-speed display device according to claim 1 is provided.
A CPU that performs various processes such as numerical calculation and image processing control, a first storage device that stores three-dimensional grid data and the like, a second storage device that stores processing programs and known data, a display device, and an input device And a volume rendering processing program and a three-dimensional high-speed processing program are stored in the ROM.
【0006】また、請求項2記載の発明は、請求項1記
載の三次元画像高速表示装置が以下の各機能を備えたこ
とを特徴としている。 (1) 経時的に変化するパラメータにあわせて、三次
元画像を連続的に生成し続けることができる高速な三次
元表示機能。 (2) 操作の対象となる点の座標を、数値として記憶
する記憶機能。 (3) 前記(2)項の記憶機能によって記憶されてい
る座標点と、関連する点・直線・図形・立体などを、
(1)項の三次元表示と同様の投影図法により任意の角
度で明確に描出することのできる図形表示機能。 (4) 前記(1)・(2)各項により生成された二つ
の画像を重ね合わせて表示する重ね合わせ表示機能。 (5) 操作者が、投影図法や角度などを前記(1)・
(2)各項の機能に対して指示する機能指示機能。 (6) 操作者が、前記(4)項により生成された画像
上において、操作の対象となる点の移動を視覚的・対話
的・連続的に指示する点移動指示機能。 (7) 前項によって指示された画像上の移動を、その
時点の三次元画像の投影図法・角度・設定された制約条
件などを元に、三次元的な移動方向・移動距離に変換
し、それを用いて前記(2)項の機能により記憶されて
いる三次元座標を変更する三次元座標変更機能。を特徴
としている。The invention according to claim 2 is characterized in that the three-dimensional image high-speed display device according to claim 1 has the following functions. (1) A high-speed three-dimensional display function that can continuously generate a three-dimensional image according to parameters that change over time. (2) A storage function for storing the coordinates of a point to be operated as a numerical value. (3) Coordinate points stored by the storage function of the above item (2) and related points, straight lines, figures, three-dimensional
(1) A graphic display function that can be clearly drawn at an arbitrary angle by the same projection method as the three-dimensional display of the item. (4) A superimposition display function of superimposing and displaying two images generated by the above items (1) and (2). (5) The operator sets the projection method, angle, etc., as described in (1).
(2) Function instructing function for instructing the function of each item. (6) A point movement instruction function in which an operator visually, interactively, and continuously instructs movement of a point to be operated on the image generated in the above item (4). (7) The movement on the image designated by the preceding paragraph is converted into a three-dimensional movement direction and movement distance based on the projection method, angle, and set constraints of the three-dimensional image at that time, and A three-dimensional coordinate changing function for changing the three-dimensional coordinates stored by the function of the above item (2) using It is characterized by.
【0007】また、請求項3記載の発明は、請求項2記
載の三次元画像高速表示装置において、さらに次の
(a)〜(c)のうちの少なくとも1種類の機能を備
え、かつ、操作者が前記(6)項の機能を用いて対象と
なる点の移動を指示する際には、該三種類の補助画像
を、独立に表示・非表示が選択できるものであることを
特徴としている。 (a) 対象となる点が移動可能な全ての点集合から構
成される、曲面・平面・直線・などの三次元物体を、図
形として三次元画像に重ね合わせて表示することができ
る三次元物体重ね合わせ表示機能。 (b) 同じ三次元物体を用いて三次元データ集合から
データをサンプリングしたものを、三次元画像と同じ投
影図法・角度により三次元画像に重ね合わせて表示する
データサンプリング重ね合わせ表示機能。 (c) 同じ三次元物体を用いて三次元データ集合に対
して、切断・強調・変形など何らかの加工を施し、デー
タに基づいている三次元画像表示も連動して変化する加
工機能。According to a third aspect of the present invention, there is provided the high-speed three-dimensional image display device according to the second aspect, further comprising at least one of the following functions (a) to (c), and When the user gives an instruction to move the target point using the function of the above item (6), the three types of auxiliary images can be displayed or hidden independently. . (A) A three-dimensional object that can be displayed by superimposing a three-dimensional object such as a curved surface, a plane, a straight line, or the like as a figure on a three-dimensional image, which is composed of a set of all movable points. Overlay display function. (B) A data sampling superimposing display function of superimposing and displaying data obtained by sampling data from a three-dimensional data set using the same three-dimensional object using the same projection and angle as the three-dimensional image. (C) A processing function in which a three-dimensional data set is subjected to some processing such as cutting, emphasizing, and deforming using the same three-dimensional object, and a three-dimensional image display based on the data is also changed in conjunction therewith.
【0008】また、請求項4記載の元空間内の座標を三
次元画像上で対話的に指定する方法の発明は、請求項3
記載の三次元画像高速表示装置を用いて、三次元格子点
データとして得られたデータ集合を高速な三次元画像生
成機能を利用して三次元画像化し、三次元画像化した結
果をデイスプレーに表示し、該デイスプレーに表示され
た二次元画像を視覚的なガイドとしつつ、三次元画像と
同じ投影方法によって図形表示された座標点を重ね合わ
せ表示し、三次元投影法や視点・角度などの三次元画像
作成パラメータを連続的に変化させながら現在の座標設
定値を対話的・連続的・直感的に把握することにより、
二次元入出力装置を使いながら三次元空間内の座標を簡
便・正確に指定することを特徴としている。According to a fourth aspect of the present invention, there is provided a method of interactively designating coordinates in an original space on a three-dimensional image.
Using the described three-dimensional image high-speed display device, a data set obtained as three-dimensional grid point data is converted into a three-dimensional image using a high-speed three-dimensional image generation function, and the result of the three-dimensional image is displayed on a display. Display, and using the two-dimensional image displayed on the display as a visual guide, superimposing and displaying coordinate points graphically displayed by the same projection method as the three-dimensional image, such as a three-dimensional projection method and a viewpoint / angle. By continuously, intuitively grasping the current coordinate set values while continuously changing the three-dimensional image creation parameters of
It is characterized in that coordinates in a three-dimensional space are specified simply and accurately while using a two-dimensional input / output device.
【0009】また、請求項5記載の発明は、さらに、座
標設定値を変更中の間、三次元格子点データとその時点
での三次元画像作成パラメータと変更中の設定座標値を
使って座標変更の視覚的ガイドとなるような補助画像を
連続的・対話的に生成し、その補助画像を重ね合わせて
または元々の表示画像に置き換えて表示する機能を加え
ることによってより多くの視覚的情報を表示し、操作者
の意図する三次元的な位置により正確・迅速に座標点を
変更できるようにしたことを特徴としている。Further, according to the present invention, while the coordinate set value is being changed, the coordinate change is performed using the three-dimensional grid point data, the three-dimensional image creation parameter at that time, and the set coordinate value being changed. Displaying more visual information by continuously and interactively generating auxiliary images that serve as visual guides and adding the function of superimposing or replacing the auxiliary images with the original display image It is characterized in that the coordinate points can be changed accurately and quickly according to the three-dimensional position intended by the operator.
【0010】上記構成により、操作者にとって直感的に
理解し易い三次元画像上で、一般に広く利用されている
二次元の入力装置・出力装置を使いながら、正確な三次
元座標点の指定が迅速・正確に可能となる。操作者は、
指定したい座標点がより特徴的に表現される三次元画像
を角度や描画条件などの対話的な指定で作成し、その画
像上に重ね合わせて表示される操作対象の図形を、自分
の望む通りの位置・形状に簡単に設置することができ
る。指定操作を繰り返し行いながら、操作者は三次元画
像と図形の重ね合わせ画像をさまざまな角度や描画条件
で対話的・連続的に確認し、間違いの有無を常に視覚的
に確かめることが可能である。また、本発明の位置変更
時補助画像によって、三次元画像上における、座標点の
三次元空間的位置の把握が、奥行きも含めて非常にやり
易くなるため、位置変更操作の回数と、座標点位置指定
全体に要する時間の両方を、大きく減らすことが可能に
なる。また、位置変更後の座標点が操作者の意図する三
次元位置に正確に設定されたかどうかの確認が非常に容
易になるため、位置指定の正確さも大きく向上する。[0010] With the above configuration, it is possible to quickly specify an accurate three-dimensional coordinate point on a three-dimensional image which is easy for the operator to intuitively understand, using a generally used two-dimensional input device and output device.・ Accurately possible. The operator
Create a three-dimensional image in which the coordinate point you want to express more distinctively by interactive specification of angles, drawing conditions, etc., and draw the operation target figure superimposed and displayed on the image as you want It can be easily installed at any position and shape. By repeatedly performing the designated operation, the operator can interactively and continuously check the superimposed image of the three-dimensional image and the figure at various angles and drawing conditions, and can always visually check for errors. . Further, the position change assisting image of the present invention makes it very easy to grasp the three-dimensional spatial position of the coordinate point on the three-dimensional image, including the depth, so that the number of position change operations and the coordinate point position Both of the time required for the entire specification can be greatly reduced. In addition, since it is very easy to check whether the coordinate point after the position change is accurately set to the three-dimensional position intended by the operator, the accuracy of the position designation is greatly improved.
【0011】[0011]
【発明の実施の形態】以下、本発明の実施の形態を詳細
に説明する前に、膨大な数量の三次元格子点データを従
来ようなポリゴンに変換することなく直接三次元に変換
できる本発明が用いているボリュームレンダリングと、
同じく本発明が採用しているMMXテクノロジについ
て、説明をしておく。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Before describing the embodiments of the present invention in detail, the present invention can directly convert a vast amount of three-dimensional grid point data into three-dimensional data without converting them into conventional polygons. Volume rendering used by
Similarly, the MMX technology employed by the present invention will be described.
【0012】まず、ボリュームレンダリングについて説
明する。ボリュームレンダリングでは、X線CT(Co
mputed Tomography)を利用すると、
人体内部を輪切りにして断層像として表示することがで
きる。この断層像は、断層面上の各点でのX線吸収量を
表している。断層面を少しずつ移動させて得られた断層
像を積み上げることにより、人体を上下・左右・前後に
それぞれ一定間隔で分割してできる、各ボクセルに対す
るX線吸収量を3次元配列に格納したようなデータが得
られる。このようなデータをボリュームデータとよび、
測定方法によっては、ある空間(ボリューム)内に分布
する特定の物質の濃度や密度などを表することができ
る。ボリュームデータをもとに、たとえば骨格を表示す
るとき、従来のCGの技法では、まず骨の表面の形状を
決定してから、レイトレーシングなどのレンダリングア
ルゴリズムを適用する必要があった。しかし、場所によ
っては骨はきわめて複雑な形をしており、また骨とそれ
に隣接する組織でX線の吸収率が滑らかに変化すること
もあり、骨・筋肉・内臓などを明確に分離することは難
しい。このようなとき、骨の表面の形などを決定するこ
となく、ボリュームデータから直接に組織を描画する方
法をボリュームレンダリング(volume rend
ering)という。ボリュームレンダリングの医用画
像以外への応用としては、大気中の水蒸気の濃度分布を
用いて雲を表示する際に用いられる。First, volume rendering will be described. In volume rendering, X-ray CT (Co
mputed Tomography)
The inside of the human body can be sliced and displayed as a tomographic image. This tomographic image represents the amount of X-ray absorption at each point on the tomographic plane. By stacking tomographic images obtained by moving the tomographic plane little by little, the X-ray absorption amount for each voxel, which can be divided at regular intervals in the vertical, horizontal, and front-back directions, is stored in a three-dimensional array. Data can be obtained. Such data is called volume data,
Depending on the measurement method, the concentration or density of a specific substance distributed in a certain space (volume) can be represented. When displaying a skeleton based on volume data, for example, in the conventional CG technique, it is necessary to first determine the shape of the surface of the bone and then apply a rendering algorithm such as ray tracing. However, bones have a very complicated shape in some places, and the absorption rate of X-rays in the bones and adjacent tissues may change smoothly, so that bones, muscles, internal organs, etc. must be clearly separated. Is difficult. In such a case, a method of directly drawing the tissue from the volume data without determining the shape of the surface of the bone is called volume rendering.
ering). As an application other than the medical image of volume rendering, it is used when displaying clouds using the concentration distribution of water vapor in the atmosphere.
【0013】ボリュームレンダリングの手法は次のとお
りである(参考文献:「コンピュータグラフィックス」
(204ページ以降)財団法人画像情報教育委員会発
行、技術系CG標準テキストブック編集委員会監修)。
ボリュームレンダリングでは、3次元空間内に分布して
いる特徴量を、任意の視線(レイ)に沿って一定間隔で
サンプリングし、その値を加算していくことで最終的に
半透明な画像を生成する。レイに沿ってボリュームをサ
ンプリングすることをレイキャスティング(ray c
asting)という。ボリュームレンダリングの概念
を図13に示す。レイは投影面上の各画素から射出さ
れ、一定間隔でボリューム内のボクセルをサンプリング
していく。ボリュームレンダリングでは、半透明表示を
行なうことで内部を可視化するが、これは各ボクセルに
不透明度αを与えることで実現している。不透明度αは
ボクセルの値そのものを用いることもあるが、隣接する
ボクセルの値からの勾配に基づいてαを決定する方法も
提案されている。表示対象としている物体表面に対応す
るボクセルのαを大きくすることで、その対象を不透明
に近く、強調して描画することが可能となる。レイキャ
スティングでは順次各ボクセルの輝度値とαとの積を加
算していき、αの総和が1となるか、またはレイが対象
としているボリュームから抜け出たとき、その画素に対
する処理を終了し、加算結果をその画素の値として表示
する。現在のサンプル位置での輝度値と不透明度をそれ
ぞれi、α、この点に入射した積算輝度値をIinとすれ
ば、このサンプル点を抜けたときの積算輝度値Ioutは
以下の式(1)で表される。 Iout =Iin(1−α)+iα ・・・(1) レイキャスティングにおけるサンプリング点での輝度値
と不透明度は、一般に、隣接する8つのボクセルの各々
の値から、図14のように線形補間により求めることが
できる。The method of volume rendering is as follows (reference: "computer graphics")
(Page 204 and later) Published by the Image Information Education Committee, supervised by the Technical CG Standard Textbook Editing Committee.)
In volume rendering, a feature value distributed in a three-dimensional space is sampled at regular intervals along an arbitrary line of sight (ray), and the values are added to finally generate a translucent image. I do. Sampling a volume along a ray is called ray casting (ray c
asting). FIG. 13 shows the concept of volume rendering. Rays are emitted from each pixel on the projection plane, and voxels in the volume are sampled at regular intervals. In volume rendering, the interior is visualized by performing translucent display, which is realized by giving each voxel an opacity α. The opacity α may use the value of the voxel itself, but a method of determining α based on the gradient from the value of the adjacent voxel has also been proposed. By increasing α of the voxel corresponding to the surface of the object to be displayed, the object can be rendered opaque and emphasized. In ray casting, the product of the luminance value of each voxel and α is sequentially added, and when the sum of α becomes 1 or the ray exits the target volume, the processing for that pixel is terminated, and the addition is performed. The result is displayed as the value of the pixel. Assuming that the luminance value and the opacity at the current sample position are i and α, respectively, and the integrated luminance value incident on this point is I in , the integrated luminance value I out when passing through this sample point is expressed by the following equation ( It is represented by 1). I out = I in (1−α) + iα (1) In general, the luminance value and opacity at a sampling point in ray casting are linear as shown in FIG. 14 from the values of eight adjacent voxels. It can be obtained by interpolation.
【0014】一般的なボリュームレンダリングの処理手
順を図15に示す。CT画像や各種物理量分布のシミュ
レーション結果などで得られた3次元ボリュームデータ
に対して、まず、前処理では雑音除去や画像強調などが
実行される。ここではボリューム全体を対象とした3次
元画像処理が行われることもある。次に、各ボクセルの
輝度値と不透明度を決定し、レイキャスティングにより
各画素に対する最終的な輝度値を求める。これらの値の
決定がボリュームレンダリングでは重要となる。FIG. 15 shows a general volume rendering processing procedure. First, in the pre-processing, noise removal, image enhancement, and the like are performed on the three-dimensional volume data obtained from the simulation results of the CT images and various physical quantity distributions. Here, three-dimensional image processing may be performed on the entire volume. Next, the luminance value and opacity of each voxel are determined, and the final luminance value for each pixel is obtained by ray casting. Determining these values is important in volume rendering.
【0015】そこで、輝度値と不透明度の決定の仕方に
ついて説明する。まず、輝度値についてであるが、各ボ
クセルの輝度値iは隣接するボクセルの値からの勾配よ
り推定される法線ベクトルNを用いて、フォンのシェー
ディングモデルから式(2)のように計算される。 i=Ika +I〔kd (N・L)+ks (N・H)〕/(k1 +k2 d) ・・・・(2) ここで、Iは光源強度を表す。ka 、kd 、ks はそれ
ぞれCGで通常用いる環境光、拡散光、鏡面反射光成分
の割合を表す。dは投影面からボクセルまでの距離を表
し、k1 およびk2 は投影面に近いものほど明るく表示
するデプスコーディング(depth coding)
法のパラメータである。Lはボクセルから光源への単位
方向ベクトル、Hは正反射光を求めるためのベクトル
で、レイの方向である視線方向ベクトルVにより次式で
求められる。 H=(V+L)/|V+L| ・・・(3) ボリューム内のあるボクセルf(i,j,k)の法線ベ
クトルNは次式(4)で求められる。 N=▽f(i,j,k)/|▽f(i,j,k)| ・・・(4) ここで、▽f(i,j,k)は、このボクセル値のx、
y、z方向の勾配として次式(5)のように求められ
る。 ▽f(i,j,k)=[(f(i+1,j,k)−f(i−1,j,k), (f(i,j+1,k)−f(i,j−1,k), (f(i,j,k+1)−f(i,j,k−1))]/2 ・・・・(5) 各ボクセルには色属性値を与えることもでき、その場合
には、光源の色特性とボクセルの色値の積として、色を
含めた輝度値を決定する。色を扱う場合にはR、G、B
の3原色で計算する方法があるが、より厳密には可視光
領域でのスペクトル特性を考慮する必要もある。Therefore, a method for determining the luminance value and the opacity will be described. First, with respect to the luminance value, the luminance value i of each voxel is calculated from the shading model of the phone using the normal vector N estimated from the gradient from the value of the adjacent voxel as shown in Expression (2). You. i = Ik a + I [k d (N · L) + k s (N · H) ] / (k 1 + k 2 d ) ···· (2) where, I is representative of the light source intensity. k a , k d , and k s respectively represent the proportions of ambient light, diffused light, and specularly reflected light components normally used in CG. d represents the distance from the projection plane to the voxel, depth coding k 1 and k 2 are to be displayed brightly nearer to the projection surface (depth coding)
Is the parameter of the modulus. L is a unit direction vector from a voxel to a light source, H is a vector for obtaining specularly reflected light, and is obtained by the following equation using a line-of-sight vector V that is the direction of a ray. H = (V + L) / | V + L | (3) The normal vector N of a certain voxel f (i, j, k) in the volume is obtained by the following equation (4). N = ▽ f (i, j, k) / | ▽ f (i, j, k) | (4) where ▽ f (i, j, k) is x of this voxel value,
The gradient in the y and z directions is obtained as in the following equation (5). ▽ f (i, j, k) = [(f (i + 1, j, k) −f (i−1, j, k), (f (i, j + 1, k) −f (i, j−1, k), (f (i, j, k + 1) -f (i, j, k-1))] / 2 (5) A color attribute value can be given to each voxel. Determines the luminance value including the color as the product of the color characteristic of the light source and the color value of the voxel.
There is a method of calculating with the three primary colors, but more strictly, it is necessary to consider the spectral characteristics in the visible light region.
【0016】次に、不透明度の決定の仕方について説明
する。先に述べたように、不透明度αとしてボクセルの
値そのものを用いることもできるが、ボクセル値に加え
て隣接するボクセルの値からの勾配に基づいてαを決定
する方法もある。勾配値を考慮するのは、異なる成分と
の境界を強調することができるからである。いま、成分
の境界となるボクセル値fと不透明度αが図16のよう
に与えられているとする。このとき、任意のボクセル値
fをもつボクセルの不透明度αは、勾配と図から補間さ
れた不透明度の積として次式(6)で与えられる。 α=▽f[αn+1(f −f n ) / (f n+1− fn ) +αn (fn+1 −f n )/(fn+1 −f n ) ] ・・・(6) (fn <f<fn+1 のとき。それ以外のときはα=0)Next, how to determine the opacity will be described. As described above, the value of the voxel itself can be used as the opacity α, but there is also a method of determining α based on the gradient from the value of the adjacent voxel in addition to the voxel value. The reason for considering the gradient value is that the boundary between different components can be emphasized. Now, it is assumed that the voxel value f and the opacity α which are the boundaries of the components are given as shown in FIG. At this time, the opacity α of a voxel having an arbitrary voxel value f is given by the following equation (6) as the product of the gradient and the opacity interpolated from the figure. α = ▽ f [α n + 1 (f -f n) / (f n + 1 - f n) + α n (f n + 1 -f n) / (f n + 1 -f n)] ··· (6) (When f n <f <f n + 1 ; otherwise, α = 0)
【0017】以上のようなボリウムレンダリング処理を
用いると、従来のようなポリゴンに変換するという中間
データ変換がないので、三次元のデータを正確に見るこ
とができるという特長がある。しかも、ポリゴンに変換
すると、あるパラメータが1つの値のとき(例えば、温
度がパラメータである場合、例えば20°Cのとき)の
ポリゴンは得られるものの、それ以外の値(温度)につ
いての情報はこのポリゴンレンダリング処理では欠落し
てしまうが、ボリウムレンダリング処理を用いると操作
者の見たい温度を表示装置を見ながら例えば10°Cか
ら12°Cというように指定しながら見てゆくことが可
能になる。The use of the above-described volume rendering processing has the advantage that three-dimensional data can be viewed accurately because there is no intermediate data conversion for converting to polygons as in the prior art. Moreover, when converted into polygons, polygons are obtained when a certain parameter has one value (for example, when temperature is a parameter, for example, at 20 ° C.), but information on other values (temperature) is not obtained. Although the polygon rendering process is missing, the volume rendering process allows the operator to see the desired temperature while looking at the display device while specifying, for example, 10 ° C. to 12 ° C. Become.
【0018】ただ、このボリウムレンダリング処理の難
点は処理に時間がかかることであり、入出力装置を使い
ながら対話形式によって指定することは従来はとても考
えられないことであった。本出願人は、ボリウムレンダ
リング処理が膨大なデータを処理するものであるが、そ
の処理内容のほとんどが実は「繰り返し処理」であるこ
とに着目し、これに高速処理を可能とするMMXテクノ
ロジを採用すれば、対話形式による指定が可能であるこ
とに至った。そこで、次に、本発明のもう1つの基礎と
なっている高速処理を可能とするMMXテクノロジにつ
いて説明する。However, the drawback of the volume rendering process is that it takes a long time to process the volume rendering process, and it has never been conceivable to specify the volume rendering process interactively while using an input / output device. The present applicant focuses on the fact that the volume rendering process processes a huge amount of data, but the fact that most of the processing content is actually "repetitive processing", and employs MMX technology that enables high-speed processing. Then, it became possible to specify the information interactively. Therefore, next, the MMX technology which enables another high-speed processing, which is another base of the present invention, will be described.
【0019】MMXテクノロジとは、元々はIntel
社が開発した「マルチメディアや通信分野における処理
を高速化する技術」である。つまり、従来のPenti
um(以下、「Pentium」と言う。)では負荷が
重かった処理や不可能だった処理を、特にマルチメディ
アデータを扱う場合において、より高速に実行すること
が可能になった技術のことである。その中核になるデー
タ処理手法が、M.J.Flynn氏が提唱した「SI
MD」(Single Instruction-stream Multiple Data-s
tream )である。SIMDはその言葉どおり、ひとつの
命令で複数のデータを処理する手法である。複数データ
を一度に処理できれば実行速度が速くなることは分かる
が、それが、マルチメディアに結び付くのは「マルチメ
ディア処理」のほとんどが実は「繰り返し処理」だから
である。画像データにエフェクト処理を行ったり、オー
ディオデータを再生したり、圧縮されたファイルを解凍
したり、これらはいずれも元データに対して同じ作業を
延々と繰り返す処理になる。たとえば、元データがD1
からD100まで100個の要素で構成されていると
き、まずD1に対して処理(演算)を行い、次にD2、
D3と順番に実行する。ひとつずつ実行すると100回
の演算が必要になる。ところがこれをSIMDを使って
1度に4つのデータを処理できる場合には、まずD1〜
D4を取り出して演算し、次にD5〜D8取り出して処
理することができるので、全部で25回の演算で済むこ
とになる。The MMX technology was originally from Intel
"Technology to speed up processing in the multimedia and communication fields." In other words, conventional Penti
um (hereinafter referred to as “Pentium”) is a technology that has made it possible to execute a process with a heavy load or a process that was not possible at a higher speed, especially when handling multimedia data. . The core data processing method is described in M. J. "SI" proposed by Flynn
MD ”(Single Instruction-stream Multiple Data-s
tream). SIMD, as the word implies, is a method of processing a plurality of data with one instruction. It can be seen that if multiple data can be processed at one time, the execution speed will be faster, but that is linked to multimedia because most of the "multimedia processing" is actually "iterative processing". Performing effect processing on image data, reproducing audio data, decompressing a compressed file, and the like are all processes that endlessly repeat the same work on original data. For example, if the original data is D1
When it is composed of 100 elements from to D100, first, processing (operation) is performed on D1, and then D2,
Execute in order with D3. When executed one by one, 100 operations are required. However, if this can be processed at a time using SIMD, four data can be processed at first.
D4 can be extracted and operated, and then D5 to D8 can be extracted and processed, so that a total of 25 operations are required.
【0020】信号処理によく使われる演算を例にとって
説明する。図17のように、2種類のデータ列(a,
b)を最初から8つ互いにペアにして掛け合わせ、その
和を求める処理を行なうとする。 単純に演算処理の部分だけに注目すると、MMXテ
クノロジがない従来手法の場合だと、データ読み込みに
16回、掛け算とシフトを8回、足し算を7回実行する
ことになる。 ところが、MMXテクノロジでは、データ読み込み
に4回、掛け算2回、シフト2回、足し算1回で済むこ
とになる。 このように、では39個、では9個となり、その差
は圧倒的に大きいうえ、さらにMMX命令の多くは1ク
ロックで済むものが多いので、実行時間の差はさらに大
きくなる。そこで、本発明は、このように、従来数時間
かかったボリュームレンダリングにSIMD手法を用い
るとわずか数秒といった短時間で処理できることに着目
したものである。A description will be given of an example of an operation often used in signal processing. As shown in FIG. 17, two types of data strings (a,
Suppose that a process of calculating the sum of b) is performed by pairing each of the eight with b). Simply paying attention to the operation processing portion, in the case of the conventional method without MMX technology, data reading is performed 16 times, multiplication and shift are performed 8 times, and addition is performed 7 times. However, in the MMX technology, data reading requires only four times, multiplication twice, shift twice, and addition once. As described above, the number is 39 in the case of 9 and the number in the case of 9 is overwhelmingly, and the difference is overwhelmingly large. Further, since many of the MMX instructions require only one clock, the difference in the execution time is further increased. Thus, the present invention focuses on the fact that the SIMD method can perform processing in a short time, such as only a few seconds, for a volume rendering that conventionally took several hours.
【0021】以下、本発明の実施の形態を図面に基づき
詳細に説明する。図1は本発明の第一の実施の形態に係
る画像処理システムの構成図である。本システムは、コ
ンピュータ本体1とディスプレイ2、コンピュータマウ
ス3、キーボード4から構成される。ディスプレイ2は
二次元画像を出力し、コンピュータマウス3は二次元の
位置・動き入力とボタンによる入力が可能である。操作
者はディスプレイ2に表示された画面を見ながらコンピ
ュータマウス3とキーボード4を使って、指示を与え
る。図2は、本発明の実施の形態に係る装置の構成図
で、CPU21は数値計算や画像処理の制御といった種
々の処理を行なう。RAM22は三次元格子データ等を
格納する。ROM23は処理プログラムや既知データを
格納する。ここに本発明が使用するボリウムレンダリン
グ処理プログラム231とSIMD技術を応用した命令
などを利用した三次元高速処理プログラム232も格納
されている。本発明はRAMやROMに限定されるもの
ではなく、半導体記憶装置以外の記憶装置を用いてもよ
いことはいうまでもない。表示装置24は図1に示した
ディスプレー2で、CRTやカラー液晶表示装置などが
使用される。入力装置25は図1に示したコンピュータ
マウス3とキーボード4である。CPUは1個しか例示
してないが、高速化を進めるためにボリウムレンダリン
グ処理専用のCPUや三次元高速処理専用のCPUを別
途用いることもある。また、三次元格子データ等を外部
とやり取りするためには、図示しないがパラレルI/O
やシリアルI/Oがメインバスに接続される。図3は、
本発明による三次元座標指定方法により、三次元空間中
に任意の線分を設定する手順のフロー図である。図4
は、本実施の形態を実現するための機能を、データの流
れと共に図示したものである。コンピュータ本体1に
は、あらかじめ縦方向、横方向、高さ方向それぞれに大
きさを持つ三次元データ集合が図4のB3に示されるデ
ータ記憶に入力されており、個々のデータは、一つの数
値からなるスカラデータであるものとする。Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a configuration diagram of an image processing system according to the first embodiment of the present invention. This system includes a computer main body 1, a display 2, a computer mouse 3, and a keyboard 4. The display 2 outputs a two-dimensional image, and the computer mouse 3 can perform two-dimensional position / motion input and button input. The operator gives instructions using the computer mouse 3 and the keyboard 4 while watching the screen displayed on the display 2. FIG. 2 is a block diagram of the apparatus according to the embodiment of the present invention, in which the CPU 21 performs various processes such as numerical calculation and control of image processing. The RAM 22 stores three-dimensional grid data and the like. The ROM 23 stores a processing program and known data. Here, a volume rendering processing program 231 used by the present invention and a three-dimensional high-speed processing program 232 using instructions and the like applying SIMD technology are also stored. The present invention is not limited to a RAM or a ROM, and it goes without saying that a storage device other than a semiconductor storage device may be used. The display device 24 is the display 2 shown in FIG. 1, and uses a CRT, a color liquid crystal display device, or the like. The input device 25 is the computer mouse 3 and the keyboard 4 shown in FIG. Although only one CPU is illustrated, a CPU dedicated to volume rendering processing or a CPU dedicated to three-dimensional high-speed processing may be separately used to increase the speed. To exchange three-dimensional lattice data with the outside, a parallel I / O (not shown) is used.
And a serial I / O are connected to the main bus. FIG.
FIG. 5 is a flowchart of a procedure for setting an arbitrary line segment in a three-dimensional space by the three-dimensional coordinate designation method according to the present invention. FIG.
FIG. 2 illustrates functions for realizing the present embodiment together with a data flow. A three-dimensional data set having a size in each of the vertical direction, the horizontal direction, and the height direction is input to the data storage shown in B3 of FIG. 4 in advance in the computer main body 1, and each data is represented by one numerical value. Is scalar data consisting of
【0022】図3において、ステップS1では、図4の
B4とB5に示される変数に値を設定する。設定する値
は、これまでの操作や条件設定などにより決定する。B
4には三次元図法を表現するのに必要な視点位置、視点
角度、視野角などの一連の情報が記憶され、B5には本
実施の形態においては線分を表現するための二つの三次
元座標が記憶される。In FIG. 3, in step S1, values are set to variables indicated by B4 and B5 in FIG. The value to be set is determined by the operation and the condition setting so far. B
4 stores a series of information such as a viewpoint position, a viewpoint angle, and a viewing angle necessary for expressing the three-dimensional projection, and B5 stores two three-dimensional information for expressing a line segment in the present embodiment. The coordinates are stored.
【0023】ステップS2では、コンピュータ本体1の
ハードウェア・ソフトウェアによって実現される三次元
画像表示機能(図4のB6)により、先ず三次元データ
集合から三次元画像が生成される。三次元画像の生成に
は、B3のデータとB4の三次元作画パラメータが使用
される。本実施の形態においては、三次元画像は図5に
示すようなものとなる。In step S2, first, a three-dimensional image is generated from a three-dimensional data set by a three-dimensional image display function (B6 in FIG. 4) realized by hardware and software of the computer main body 1. To generate the three-dimensional image, the data of B3 and the three-dimensional drawing parameters of B4 are used. In the present embodiment, the three-dimensional image is as shown in FIG.
【0024】ステップS3では、B5に記憶されている
座標情報を表現するための図形を作成する。この図形
は、三次元画像の作成と同様な図法によって作成される
ものであり、本実施の形態においては図6に示すような
ものとなる。ここで、P1とP2は設定の対象となる二
つの三次元座標を表現した図形であり、Lは操作者が線
分を認識できるようにP1とP2をつないだ直線図形で
ある。In step S3, a figure for expressing the coordinate information stored in B5 is created. This figure is created by the same projection as the creation of the three-dimensional image, and in this embodiment, it is as shown in FIG. Here, P1 and P2 are figures representing two three-dimensional coordinates to be set, and L is a linear figure connecting P1 and P2 so that the operator can recognize the line segment.
【0025】ステップS4では、ステップS2とS3で
作成した二つの画像を重ね合わせてディスプレイ2上に
表示する。本実施の形態においては、図7のようなもの
となる。In step S4, the two images created in steps S2 and S3 are superimposed and displayed on the display 2. In the present embodiment, it is as shown in FIG.
【0026】ステップS5では、コンピュータマウス3
またはキーボード4による操作者入力があるまで待機す
る。ステップS6では、操作者の入力が座標設定作業の
終了を指示するものかどうかを判断し、もしそうであれ
ば全体の処理を終了する。ステップS7では、操作者の
入力が三次元描画パラメータの変更を指示するものかど
うかを判断し、もしそうであればステップS8の処理へ
分岐する。ステップS8では、三次元描画変数B4の内
容を操作者の指示に従って更新し、ステップS2へルー
プする。In step S5, the computer mouse 3
Alternatively, the operation waits until an operator input is made through the keyboard 4. In step S6, it is determined whether or not the input by the operator is an instruction to end the coordinate setting work, and if so, the entire processing is ended. In step S7, it is determined whether or not the input by the operator is an instruction to change the three-dimensional drawing parameters. If so, the process branches to step S8. In step S8, the contents of the three-dimensional drawing variable B4 are updated according to the instruction of the operator, and the process loops to step S2.
【0027】ステップS9では、操作者の指示が三次元
座標の変更であると判断し、まず変更の指示が二つある
点のどちらに対するものであるかを決定する。本実施の
形態においては、コンピュータマウス3のボタンが最初
に押された時点で、P1とP2のうちマウスポインタに
近い方が変更対象であると決定する。In step S9, it is determined that the operator's instruction is to change the three-dimensional coordinates, and it is first determined which of the two points the change instruction is for. In the present embodiment, when the button of the computer mouse 3 is pressed for the first time, it is determined that one of P1 and P2 which is closer to the mouse pointer is to be changed.
【0028】ステップS10では、変更対象である点が
動くことのできる面(Mとする)を決定する。本実施の
形態においては、対象点は、三次元画像の視点位置から
現在の座標に引いた直線(Nとする)と直交する方向に
移動できるものとする。従って、この場合、面Mとして
は直線Nと直交する平面となる。この様子を図8に示
す。このような条件により、点は操作者から見て奥行き
方向には動かないことになり、縦横に動かしている操作
と対象点の三次元移動が直感的に一致し、理解し易くな
る。In step S10, a plane (M) on which the point to be changed can move is determined. In the present embodiment, it is assumed that the target point can move in a direction orthogonal to a straight line (N) drawn from the viewpoint position of the three-dimensional image to the current coordinates. Therefore, in this case, the plane M is a plane orthogonal to the straight line N. This is shown in FIG. Under these conditions, the point does not move in the depth direction when viewed from the operator, and the operation of moving the object vertically and horizontally and the three-dimensional movement of the target point are intuitively matched, which facilitates understanding.
【0029】ステップS11では、面Mを使用して補助
画像を作成する。本実施の形態の補助画像としては面M
によって三次元画像を切断した画像Aと面Mによって三
次元データをサンプリングした画像Bの二種類を作成す
る。画像Aを図9に、画像Bを図10に示す。In step S11, an auxiliary image is created using the surface M. As the auxiliary image of the present embodiment, the surface M
Thus, two types of images, ie, an image A obtained by cutting a three-dimensional image and an image B obtained by sampling three-dimensional data using a plane M, are created. Image A is shown in FIG. 9, and image B is shown in FIG.
【0030】ステップS12では、ステップS11で作
成した補助画像を元々の表示画像に組み合わせてディス
プレイ2に表示する。操作者は元々の表示画像と画像A
と画像Bを、選択し、好みの強さで重ね合わせてディス
プレイ2に表示させることができる。図11に画像Aだ
けを選択した表示例と、図12に画像Aと画像Bを重ね
合わせ表示例を示す。ステップS13では、コンピュー
タマウス3またはキーボード4による操作者の入力があ
るまで待機する。ステップS14では、操作者の入力が
現在実行中の座標変更の終了を指示するものであるかど
うかを判断する。もし終了の指示があれば、処理はステ
ップS4にループする。In step S12, the auxiliary image created in step S11 is combined with the original display image and displayed on the display 2. The operator displays the original display image and image A
And the image B can be selected, superimposed with desired strength, and displayed on the display 2. FIG. 11 shows a display example in which only the image A is selected, and FIG. 12 shows a display example in which the image A and the image B are superimposed. In step S13, the process waits until there is an input from the computer mouse 3 or the keyboard 4 by the operator. In step S14, it is determined whether or not the input by the operator is an instruction to end the currently executing coordinate change. If there is an instruction to end, the process loops to step S4.
【0031】ステップS15では、座標変更の内容を解
釈する。操作者の入力は対象点の三次元空間における移
動ベクトルに変換される。ステップS16では、ステッ
プS15で計算された移動ベクトルに基づき、座標変数
B5の記憶内容を変更する。ステップS17では、更新
された座標変数B5の内容に基づき、新たな座標表示図
形を作成する。即ち、P1、P2、Lのそれぞれの図形
を新しい位置に描画する。ステップS18では、ステッ
プS17で作成された座標表示図形を三次元画像に重ね
合わせてディスプレイ2に表示し、ステップS12にル
ープする。In step S15, the contents of the coordinate change are interpreted. The input of the operator is converted into a movement vector of the target point in the three-dimensional space. In step S16, the storage contents of the coordinate variable B5 are changed based on the movement vector calculated in step S15. In step S17, a new coordinate display figure is created based on the updated contents of the coordinate variable B5. That is, each of the figures P1, P2, and L is drawn at a new position. In step S18, the coordinate display graphic created in step S17 is superimposed on the three-dimensional image and displayed on the display 2, and the process loops to step S12.
【0032】以上のように、本発明は、以下の各機能の
組み合わせからなるものである。また、これらの各機能
は、操作者に対話的操作を可能にするために十分な速度
で、変化する角度などのパラメータに応じて連続的に動
作し続けることができるものである。 (1) 経時的に変化するパラメータにあわせて、三次
元画像を連続的に生成し続けることができる高速な三次
元表示機能。 (2) 操作の対象となる点の座標を、数値として記憶
する記憶機能。 (3) 前記(2)項の記憶機能によって記憶されてい
る座標点と、関連する点・直線・図形・立体などを、
(1)項の三次元表示と同様の投影図法により任意の角
度で明確に描出することのできる図形表示機能。 (4) 前記(1)・(2)各項により生成された二つ
の画像を重ね合わせて表示する重ね合わせ表示機能。 (5) 操作者が、投影図法や角度などを前記(1)・
(2)各項の機能に対して指示する機能指示機能。 (6) 操作者が、前記(4)項により生成された画像
上において、操作の対象となる点の移動を視覚的・対話
的・連続的に指示する点移動指示機能。 (7) 前項によって指示された画像上の移動を、その
時点の三次元画像の投影図法・角度・設定された制約条
件などを元に、三次元的な移動方向・移動距離に変換
し、それを用いて前記(2)項の機能により記憶されて
いる三次元座標を変更する三次元座標変更機能。 (8) 操作者が前記(6)項の機能を用いて対象とな
る点の移動を指示する際には、次の(a)・(b)・
(c)の三種類の補助画像を、独立に表示・非表示が選
択できるものである。 (a) 対象となる点が移動可能な全ての点集合から構
成される、曲面・平面・直線・などの三次元物体を、図
形として三次元画像に重ね合わせて表示することができ
る三次元物体重ね合わせ表示機能。 (b) 同じ三次元物体を用いて三次元データ集合から
データをサンプリングしたものを、三次元画像と同じ投
影図法・角度により三次元画像に重ね合わせて表示する
データサンプリング重ね合わせ表示機能。 (c) 同じ三次元物体を用いて三次元データ集合に対
して、切断・強調・変形など何らかの加工を施し、デー
タに基づいている三次元画像表示も連動して変化する加
工機能。As described above, the present invention comprises a combination of the following functions. In addition, each of these functions can continue to operate continuously at a speed sufficient to allow the operator to perform interactive operations according to parameters such as changing angles. (1) A high-speed three-dimensional display function that can continuously generate a three-dimensional image according to parameters that change over time. (2) A storage function for storing the coordinates of a point to be operated as a numerical value. (3) Coordinate points stored by the storage function of the above item (2) and related points, straight lines, figures, three-dimensional
(1) A graphic display function that can be clearly drawn at an arbitrary angle by the same projection method as the three-dimensional display of the item. (4) A superimposition display function of superimposing and displaying two images generated by the above items (1) and (2). (5) The operator sets the projection method, angle, etc., as described in (1).
(2) Function instructing function for instructing the function of each item. (6) A point movement instruction function in which an operator visually, interactively, and continuously instructs movement of a point to be operated on the image generated in the above item (4). (7) The movement on the image designated by the preceding paragraph is converted into a three-dimensional movement direction and movement distance based on the projection method, angle, and set constraints of the three-dimensional image at that time, and A three-dimensional coordinate changing function for changing the three-dimensional coordinates stored by the function of the above item (2) using (8) When the operator instructs movement of a target point using the function of the above item (6), the following (a), (b),
The three types of auxiliary images (c) can be independently displayed or hidden. (A) A three-dimensional object that can be displayed by superimposing a three-dimensional object such as a curved surface, a plane, a straight line, or the like as a figure on a three-dimensional image, which is composed of a set of all movable points. Overlay display function. (B) A data sampling superimposing display function of superimposing and displaying data obtained by sampling data from a three-dimensional data set using the same three-dimensional object using the same projection and angle as the three-dimensional image. (C) A processing function in which a three-dimensional data set is subjected to some processing such as cutting, emphasizing, and deforming using the same three-dimensional object, and a three-dimensional image display based on the data is also changed in conjunction therewith.
【0033】従来装置では二次元画像で2点間の距離を
測定することは可能であっても三次元画像で2点間の距
離を測定することは時間がかかり過ぎて不可能であった
ため、そういうこと自体考えさえもしなかったのである
が、本発明によればそれが可能となってしまう。すなわ
ち、通常の二次元表示装置とマウスを使用し、本発明に
よる高速三次元画像生成を用いて、二次元表示装置に三
次元空間画像を表示し、マウスで三次元空間内の点を指
定して、回転・拡大・移動等を高速に行なうことによ
り、1画面の2点の投影だけでは分からなかった奥行き
が回転をさせることにより位置を再指定でき、さらに回
転させて位置を指定することを数回繰り返すだけで急速
に収束して2点間の距離を正確に測定することが可能と
なる。In the conventional apparatus, it is possible to measure the distance between two points in a two-dimensional image, but it is too long and impossible to measure the distance between two points in a three-dimensional image. Although I did not even think about such a thing, according to the present invention, it becomes possible. That is, using a normal two-dimensional display device and a mouse, a three-dimensional space image is displayed on the two-dimensional display device using the high-speed three-dimensional image generation according to the present invention, and a point in the three-dimensional space is designated with the mouse. By rotating, enlarging, moving, etc. at high speed, it is possible to re-designate the position by rotating the depth, which was not known only by projecting two points on one screen, and to specify the position by further rotating. The convergence is rapid only by repeating several times, and the distance between the two points can be accurately measured.
【0034】[0034]
【発明の効果】上述のように、従来装置では考えさえも
しなかった、通常の二次元表示装置を使っての例えば2
点間の距離の測定が、本発明によれば、高速三次元画像
生成機能により図形の回転・拡大・移動等が高速に行な
われるようになるので、1画面の2点の投影だけでは分
からなかった奥行きを高速回転により即座に知ることが
でき、位置を再指定することを数回繰り返すことで2点
間の距離を正確に測定することができるようになる。以
上は回転の例であるが、拡大・移動についても同様のこ
とが言える。As described above, a conventional two-dimensional display device, such as a two-dimensional display device, which was not even considered in the conventional device, is used.
According to the present invention, the distance between points can be measured at a high speed by a high-speed three-dimensional image generation function, such as rotating, enlarging, or moving a figure. The depth can be immediately known by high-speed rotation, and the distance between two points can be accurately measured by repeating the re-designation of the position several times. The above is an example of rotation, but the same can be said for enlargement and movement.
【図1】本発明の実施の形態に係るシステム構成図であ
る。FIG. 1 is a system configuration diagram according to an embodiment of the present invention.
【図2】本発明の実施の形態に係る装置の構成図であ
る。FIG. 2 is a configuration diagram of an apparatus according to an embodiment of the present invention.
【図3】本発明の実施の形態における処理フロー図であ
る。FIG. 3 is a processing flow chart in the embodiment of the present invention.
【図4】本発明の実施の形態におけるデータの流れを示
すブロック図である。FIG. 4 is a block diagram showing a data flow in the embodiment of the present invention.
【図5】B6により生成される三次元画像の例である。FIG. 5 is an example of a three-dimensional image generated by B6.
【図6】B7により生成される座標表示図形の例であ
る。FIG. 6 is an example of a coordinate display graphic generated by B7.
【図7】B8により生成される補助画像のない場合の重
ね合わせ画像の例である。FIG. 7 is an example of a superimposed image without an auxiliary image generated by B8.
【図8】本発明の実施の形態における、座標設定対象点
の動ける面Mと視点との関係を示す図である。FIG. 8 is a diagram illustrating a relationship between a plane M on which a coordinate setting target point can move and a viewpoint in the embodiment of the present invention.
【図9】B10により生成される補助画像の例として、
面Mによって三次元画像を切断して作成した画像Aを示
す。FIG. 9 shows an example of an auxiliary image generated by B10.
An image A created by cutting a three-dimensional image by a plane M is shown.
【図10】B10により生成される補助画像の例とし
て、面Mによって三次元データをサンプリングして作成
した画像Bを示す。FIG. 10 shows an image B created by sampling three-dimensional data using a surface M as an example of an auxiliary image generated by B10.
【図11】B8により生成される補助画像AとBの場合
の重ね合わせ画像の例で、元々の表示画像と画像Aだけ
を選択した表示例を示す。FIG. 11 is an example of a superimposed image in the case of auxiliary images A and B generated by B8, showing an original display image and a display example in which only image A is selected.
【図12】B8により生成される補助画像AとBの場合
の重ね合わせ画像の例で、元々の表示画像と画像Aおよ
び画像Bを重ね合わせた表示例を示す。FIG. 12 is an example of a superimposed image in the case of auxiliary images A and B generated by B8, showing a display example in which an original display image and an image A and an image B are superimposed.
【図13】ボリウムレンダリングの概念を示す図であ
る。FIG. 13 is a diagram showing the concept of volume rendering.
【図14】レイキャステイングにおけるサンプリングを
示す図である。FIG. 14 is a diagram showing sampling in ray casting.
【図15】ボリウムレンダリングの処理手順を示す図で
ある。FIG. 15 is a diagram showing a volume rendering processing procedure.
【図16】勾配値を考慮した不透明度αを説明する図で
ある。FIG. 16 is a diagram illustrating an opacity α in consideration of a gradient value.
【図17】あるデータ処理の手法を説明する図で、
(a)は従来の手法、(b)はMMXテクノロジの手法
を示す図である。FIG. 17 is a diagram illustrating a data processing method.
(A) is a figure which shows the conventional method, (b) is a figure which shows the method of MMX technology.
1 コンピュータ本体 2、24 ディスプレイ 3 コンピュータマウス 4 キーボード 21 CPU 22 RAM 23 ROM 231 ボリウムレンダリング処理プログラム 232 三次元高速処理プログラム 24 表示装置 25 入力装置 DESCRIPTION OF SYMBOLS 1 Computer main body 2, 24 Display 3 Computer mouse 4 Keyboard 21 CPU 22 RAM 23 ROM 231 Volume rendering processing program 232 3D high-speed processing program 24 Display device 25 Input device
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 CA02 CA07 EA12 EA19 EA27 EA28 FA02 FA05 5B080 AA17 BA02 FA02 FA08 FA17 5C082 AA01 AA24 BA12 CB01 CB06 DA22 DA87 MM02 MM09 ────────────────────────────────────────────────── ─── Continued on the front page F term (reference) 5B050 CA02 CA07 EA12 EA19 EA27 EA28 FA02 FA05 5B080 AA17 BA02 FA02 FA08 FA17 5C082 AA01 AA24 BA12 CB01 CB06 DA22 DA87 MM02 MM09
Claims (5)
の処理を行なうCPUと、三次元格子データ等を格納す
る第1記憶装置と、処理プログラムや既知データを格納
する第2記憶装置と、表示装置と、入力装置とを備えた
三次元画像表示装置において、前記第2記憶装置内にボ
リウムレンダリング処理プログラムと三次元高速処理プ
ログラムとを格納したことを特徴とする三次元画像高速
表示装置。A CPU for performing various processes such as numerical calculation and control of image processing; a first storage device for storing three-dimensional grid data and the like; a second storage device for storing processing programs and known data; A three-dimensional image display device comprising a device and an input device, wherein a volume rendering processing program and a three-dimensional high-speed processing program are stored in the second storage device.
が以下の各機能を備えたことを特徴とする三次元画像高
速表示装置。 (1) 経時的に変化するパラメータにあわせて、三次
元画像を連続的に生成し続けることができる高速な三次
元表示機能。 (2) 操作の対象となる点の座標を、数値として記憶
する記憶機能。 (3) 前記(2)項の記憶機能によって記憶されてい
る座標点と、関連する点・直線・図形・立体などを、
(1)項の三次元表示と同様の投影図法により任意の角
度で明確に描出することのできる図形表示機能。 (4) 前記(1)・(2)各項により生成された二つ
の画像を重ね合わせて表示する重ね合わせ表示機能。 (5) 操作者が、投影図法や角度などを前記(1)・
(2)各項の機能に対して指示する機能指示機能。 (6) 操作者が、前記(4)項により生成された画像
上において、操作の対象となる点の移動を視覚的・対話
的・連続的に指示する点移動指示機能。 (7) 前項によって指示された画像上の移動を、その
時点の三次元画像の投影図法・角度・設定された制約条
件などを元に、三次元的な移動方向・移動距離に変換
し、それを用いて前記(2)項の機能により記憶されて
いる三次元座標を変更する三次元座標変更機能。2. The three-dimensional image high-speed display device according to claim 1, wherein the three-dimensional image high-speed display device has the following functions. (1) A high-speed three-dimensional display function that can continuously generate a three-dimensional image according to parameters that change over time. (2) A storage function for storing the coordinates of a point to be operated as a numerical value. (3) Coordinate points stored by the storage function of the above item (2) and related points, straight lines, figures, three-dimensional
(1) A graphic display function that can be clearly drawn at an arbitrary angle by the same projection method as the three-dimensional display of the item. (4) A superimposition display function of superimposing and displaying two images generated by the above items (1) and (2). (5) The operator sets the projection method, angle, etc., as described in (1).
(2) Function instructing function for instructing the function of each item. (6) A point movement instruction function in which an operator visually, interactively, and continuously instructs movement of a point to be operated on the image generated in the above item (4). (7) The movement on the image designated by the preceding paragraph is converted into a three-dimensional movement direction and movement distance based on the projection method, angle, and set constraints of the three-dimensional image at that time, and A three-dimensional coordinate changing function for changing the three-dimensional coordinates stored by the function of the above item (2) using
において、 さらに次の(a)〜(c)のうちの少なくとも1種類の
機能を備え、かつ、操作者が前記(6)項の機能を用い
て対象となる点の移動を指示する際には、該補助画像
を、独立に表示・非表示が選択できるものであることを
特徴とする三次元画像高速表示装置。 (a) 対象となる点が移動可能な全ての点集合から構
成される、曲面・平面・直線・などの三次元物体を、図
形として三次元画像に重ね合わせて表示することができ
る三次元物体重ね合わせ表示機能。 (b) 同じ三次元物体を用いて三次元データ集合から
データをサンプリングしたものを、三次元画像と同じ投
影図法・角度により三次元画像に重ね合わせて表示する
データサンプリング重ね合わせ表示機能。 (c) 同じ三次元物体を用いて三次元データ集合に対
して、切断・強調・変形など何らかの加工を施し、デー
タに基づいている三次元画像表示も連動して変化する加
工機能。3. The three-dimensional image high-speed display device according to claim 2, further comprising at least one of the following functions (a) to (c), and wherein an operator has the function described in (6). A three-dimensional image high-speed display apparatus characterized in that, when a movement of a target point is instructed using a function, the auxiliary image can be independently displayed or hidden. (A) A three-dimensional object that can be displayed by superimposing a three-dimensional object such as a curved surface, a plane, a straight line, or the like as a figure on a three-dimensional image, which is composed of a set of all movable points. Overlay display function. (B) A data sampling superimposing display function of superimposing and displaying data obtained by sampling data from a three-dimensional data set using the same three-dimensional object using the same projection and angle as the three-dimensional image. (C) A processing function in which a three-dimensional data set is subjected to some processing such as cutting, emphasizing, and deforming using the same three-dimensional object, and a three-dimensional image display based on the data is also changed in conjunction therewith.
を用いて、三次元格子点データとして得られたデータ集
合を高速な三次元画像生成機能を利用して三次元画像化
し、三次元画像化した結果をデイスプレーに表示し、該
デイスプレーに表示された二次元画像を視覚的なガイド
としつつ、三次元画像と同じ投影方法によって図形表示
された座標点を重ね合わせ表示し、三次元投影法や視点
・角度などの三次元画像作成パラメータを連続的に変化
させながら現在の座標設定値を対話的・連続的・直感的
に把握することにより、二次元入出力装置を使いながら
三次元空間内の座標を簡便・正確に指定することを特徴
とする三次元空間内の座標を三次元画像上で対話的に指
定する方法。4. A three-dimensional image using a high-speed three-dimensional image generation function to convert a data set obtained as three-dimensional grid point data into a three-dimensional image using the three-dimensional image high-speed display device according to claim 3. The imaged result is displayed on a display, and the two-dimensional image displayed on the display is used as a visual guide, and the coordinate points graphically displayed by the same projection method as the three-dimensional image are superimposed and displayed. By interactively, continuously and intuitively grasping the current coordinate setting values while continuously changing the three-dimensional image creation parameters such as the original projection method and the viewpoint and angle, it is possible to use a two-dimensional input / output device to perform tertiary A method for interactively specifying coordinates in a three-dimensional space on a three-dimensional image, which is characterized by simply and accurately specifying coordinates in a source space.
元格子点データとその時点での三次元画像作成パラメー
タと変更中の設定座標値を使って座標変更の視覚的ガイ
ドとなるような補助画像を連続的・対話的に生成し、そ
の補助画像を重ね合わせてまたは元々の表示画像に置き
換えて表示する機能を加えることによってより多くの視
覚的情報を表示し、操作者の意図する三次元的な位置に
より正確・迅速に座標点を変更できるようにしたことを
特徴とする請求項2に記載の指定方法。5. An auxiliary device for providing a visual guide for coordinate change using the three-dimensional grid point data, the three-dimensional image creation parameter at that time, and the set coordinate value being changed while the coordinate set value is being changed. Displaying more visual information by adding the function of generating images continuously and interactively and overlaying or replacing the auxiliary image with the original display image, displaying the three-dimensional image intended by the operator 3. The designation method according to claim 2, wherein the coordinate point can be changed accurately and quickly according to a specific position.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27285099A JP4018300B2 (en) | 1999-09-27 | 1999-09-27 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27285099A JP4018300B2 (en) | 1999-09-27 | 1999-09-27 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001101451A true JP2001101451A (en) | 2001-04-13 |
JP4018300B2 JP4018300B2 (en) | 2007-12-05 |
Family
ID=17519652
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27285099A Expired - Lifetime JP4018300B2 (en) | 1999-09-27 | 1999-09-27 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4018300B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004215846A (en) * | 2003-01-14 | 2004-08-05 | Ziosoft Inc | Method and device for volume rendering image processing and program therefor |
JP2006055213A (en) * | 2004-08-17 | 2006-03-02 | Konica Minolta Medical & Graphic Inc | Image processor and program |
JP2007522826A (en) * | 2004-02-18 | 2007-08-16 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Volume visualization method using tissue mixing |
JP2008520267A (en) * | 2004-11-17 | 2008-06-19 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Improved elastic image registration function |
JP2008259698A (en) * | 2007-04-12 | 2008-10-30 | Fujifilm Corp | Image processing method and apparatus, and program |
JP4778561B2 (en) * | 2005-12-12 | 2011-09-21 | インテル・コーポレーション | Method, program, and system for image classification and segmentation based on binary |
WO2012137732A1 (en) * | 2011-04-06 | 2012-10-11 | 株式会社東芝 | Image processing system, image processing device, and image processing method |
JP2013017056A (en) * | 2011-07-04 | 2013-01-24 | Toshiba Corp | Image processing system, image processing method, and medical image diagnostic device |
JP2013026792A (en) * | 2011-07-20 | 2013-02-04 | Toshiba Corp | Image processing device, image processing method, image processing system, and medical image diagnostic device |
JP2019114033A (en) * | 2017-12-22 | 2019-07-11 | 大日本印刷株式会社 | Computer program, image processing device, image processing method and data of three-dimensional voxel image |
-
1999
- 1999-09-27 JP JP27285099A patent/JP4018300B2/en not_active Expired - Lifetime
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4653938B2 (en) * | 2003-01-14 | 2011-03-16 | ザイオソフト株式会社 | Volume rendering image processing method, volume rendering image processing apparatus, and program |
JP2004215846A (en) * | 2003-01-14 | 2004-08-05 | Ziosoft Inc | Method and device for volume rendering image processing and program therefor |
JP2007522826A (en) * | 2004-02-18 | 2007-08-16 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Volume visualization method using tissue mixing |
JP2006055213A (en) * | 2004-08-17 | 2006-03-02 | Konica Minolta Medical & Graphic Inc | Image processor and program |
JP2008520267A (en) * | 2004-11-17 | 2008-06-19 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Improved elastic image registration function |
JP4778561B2 (en) * | 2005-12-12 | 2011-09-21 | インテル・コーポレーション | Method, program, and system for image classification and segmentation based on binary |
JP2008259698A (en) * | 2007-04-12 | 2008-10-30 | Fujifilm Corp | Image processing method and apparatus, and program |
WO2012137732A1 (en) * | 2011-04-06 | 2012-10-11 | 株式会社東芝 | Image processing system, image processing device, and image processing method |
JP2012222521A (en) * | 2011-04-06 | 2012-11-12 | Toshiba Corp | Image processing system, image processing apparatus, and image processing method |
US10417808B2 (en) | 2011-04-06 | 2019-09-17 | Canon Medical Systems Corporation | Image processing system, image processing apparatus, and image processing method |
JP2013017056A (en) * | 2011-07-04 | 2013-01-24 | Toshiba Corp | Image processing system, image processing method, and medical image diagnostic device |
JP2013026792A (en) * | 2011-07-20 | 2013-02-04 | Toshiba Corp | Image processing device, image processing method, image processing system, and medical image diagnostic device |
JP2019114033A (en) * | 2017-12-22 | 2019-07-11 | 大日本印刷株式会社 | Computer program, image processing device, image processing method and data of three-dimensional voxel image |
JP7003635B2 (en) | 2017-12-22 | 2022-01-20 | 大日本印刷株式会社 | Computer program, image processing device and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP4018300B2 (en) | 2007-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8149236B2 (en) | Information processing apparatus and program | |
JP3483929B2 (en) | 3D image generation method | |
RU2497194C2 (en) | Method and device for 3d visualisation of data sets | |
EP1917645B1 (en) | Method and apparatus featuring simple click style interactions according to a clinical task workflow | |
US9678620B2 (en) | Workflow for ambiguity guided interactive segmentation of lung lobes | |
US7586501B2 (en) | Simultaneous projection of multi-branched vessels and their context on a single image | |
JP2000149066A (en) | Device for generating cursor inside rendering of three- dimensional volume and method for rendering cursor into the multi-dimensional volume in real time | |
CN105303506B (en) | A kind of data parallel processing method and system based on HTML5 | |
JPH08215192A (en) | Image diagnosis device | |
JP4018300B2 (en) | Image processing device | |
JP2006302103A (en) | Developed image projection method, developed image projection program and developed image projector | |
JP4018679B2 (en) | Rendering processing method, rendering processing program, and rendering processing apparatus | |
RU2563158C2 (en) | Improvements to curved planar reformation | |
JP4319165B2 (en) | CT image display method and apparatus | |
US20050237336A1 (en) | Method and system for multi-object volumetric data visualization | |
JP2006075216A (en) | Medical image processing system, program and method | |
JPH0773337A (en) | Method and device for interactive volume rendering | |
US20160125264A1 (en) | Visually Highlighting Spatial Structures | |
JP4831788B2 (en) | Conceptual model visualization system, program and recording medium | |
Bruckner et al. | Illustrative focus+ context approaches in interactive volume visualization | |
JP2006122663A (en) | Image processing apparatus and image processing method | |
JPH05266214A (en) | Picture display method | |
CN112767508A (en) | Pseudo color display method, system, device, and medium for respiratory gated image | |
CN105869218A (en) | Method and apparatus for editing tumor lesion of blood vessel digital model | |
WO2022004898A1 (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060425 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070727 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070920 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4018300 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100928 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100928 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110928 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120928 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130928 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |