[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4494553B2 - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
JP4494553B2
JP4494553B2 JP15857999A JP15857999A JP4494553B2 JP 4494553 B2 JP4494553 B2 JP 4494553B2 JP 15857999 A JP15857999 A JP 15857999A JP 15857999 A JP15857999 A JP 15857999A JP 4494553 B2 JP4494553 B2 JP 4494553B2
Authority
JP
Japan
Prior art keywords
image
small
region
border
existence range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP15857999A
Other languages
Japanese (ja)
Other versions
JP2000342539A (en
JP2000342539A5 (en
Inventor
聡 阿部
順一 西辻
Original Assignee
アレイ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アレイ株式会社 filed Critical アレイ株式会社
Priority to JP15857999A priority Critical patent/JP4494553B2/en
Publication of JP2000342539A publication Critical patent/JP2000342539A/en
Publication of JP2000342539A5 publication Critical patent/JP2000342539A5/ja
Application granted granted Critical
Publication of JP4494553B2 publication Critical patent/JP4494553B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Processing Or Creating Images (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は画像処理装置およびその方法に関し、とくに、医用画像をディジタル処理する画像処理装置およびその方法に関するものである。
【0002】
【従来の技術】
コンピュータ断層撮影(CT: Computerized Tomography)による診断を行う際は、まず、検査技師により操作されるモダリティと呼ばれる画像診断装置によって患者の断層画像などが撮影される。この画像は装置のコンソールにあるビデオディスプレイに表示される。そして、モダリティに接続されたイメージャと呼ばれるフィルムレコーダを検査技師が操作することで、診断に必要な画像を指示し、指示された画像がイメージャへ入力され、大判のフィルムにハードコピーされる。このフィルムが診断画像として医師に渡され、患者の診断が行われる。通常、一枚のフィルムには数コマの画像がレイアウトされる。
【0003】
上記の診断画像など医療に利用される医用画像には保管義務がある。従来は、医用画像がハードコピーされたフィルムを保管していたが、最近、法令が変わり、医用画像をディジタルデータとして保管する、所謂電子保管が可能になった。
【0004】
【発明が解決しようとする課題】
医用画像を電子保管する場合、画像は一枚単位で検索および表示できることが望ましい。さらに、医用画像のディジタル通信における国際標準になりつつあるDICOM(Digital Imaging and Communication in Medicine)も、画像を一枚一枚管理する仕組みを採用している。
【0005】
従って、一枚のフィルムにハードコピーされた複数の医用画像を電子保管する場合、それらの画像を一枚一枚に分割して保管する必要がある。そのため、スキャナで読み取ったフィルム全体に記録された画像(以下では「フィルム画像」と呼ぶ)から個々の画像を切り出す作業が必要になる。
【0006】
本発明は、複数の小画像を縦横方向に略均等配置した医用画像から小画像を正確、容易かつ短時間に切り出すことを目的とする。
【0007】
【課題を解決するための手段】
本発明は、前記の目的を達成する一手段として、以下の構成を備える。
【0008】
本発明にかかる画像処理装置は、複数の小画像を縦横方向に略均等配置した医用画像を入力する入力手段と、前記医用画像を二値画像にする二値化手段と、前記二値画像の画素値の分散に基づき前記小画像の存在範囲を検出する検出手段と、前記小画像の存在範囲の二値画像を白画素が連続する領域と黒画素が連続する領域に分割し、前記分割した領域の外接矩形を求め、前記外接矩形の中で最長の辺をもつ外接矩形が囲む領域の色を前記複数の小画像間のボーダ領域の色と判定する判定手段と、前記小画像の存在範囲および前記ボーダ領域の色に基づき、前記小画像を個々に切り出す切出手段とを有することを特徴とする。
【0009】
本発明にかかる画像処理方法は、複数の小画像を縦横方向に略均等配置した医用画像を画像処理する装置の画像処理方法であって、前記医用画像を入力し、前記医用画像を二値画像に二値化し、前記二値画像の画素値の分散に基づき前記小画像の存在範囲を検出し、前記小画像の存在範囲の二値画像を白画素が連続する領域と黒画素が連続する領域に分割し、前記分割した領域の外接矩形を求め、前記外接矩形の中で最長の辺をもつ外接矩形が囲む領域の色を前記複数の小画像間のボーダ領域の色と判定し、前記小画像の存在範囲および前記ボーダ領域の色に基づき、前記小画像を個々に切り出すことを特徴とする。
【0010】
【発明の実施の形態】
以下、本発明にかかる一実施形態の画像処理装置を図面を参照して詳細に説明する。
【0011】
[画像の切り出し原理]
図1はフィルムから読み取られるフィルム画像1を説明するための図である。
【0012】
医用画像は、図1に示すように、碁盤の目状に複数並べられた状態で、例えば半切サイズ(約35cm×43cm)のフィルムに記録されている。これらの画像2は、その一辺が数cmから数十cmであり、一枚のフィルムに同一サイズになるように記録されている。また、画像と画像とを相互に区切る領域として幅数mmから数十mmの背景領域(以下では「ボーダ」と呼ぶ)がある。背景領域はフィルム上ではほぼ透明または不透明であるから、フィルム画像1の背景領域の色はほぼ黒色または白色になる。
【0013】
以下の説明においては、一枚のフィルム画像1には縦横方向それぞれに一枚から六枚の画像2が並ぶ、つまり一枚のフィルム画像1は最大36枚の画像2を有するとして説明するが、これに限られるわけではない。また、フィルム画像1上の画像2が配置される領域をフレームと呼ぶことにする。
【0014】
フィルム画像1から個々の画像を切り出すには、フィルム画像1上の各フレームの位置を検出する必要がある。本実施形態においては、ボーダを検出し、ボーダによって囲まれた領域をフレームと認識し、フレームに記録された画像2を切り出すものである。勿論、検出されたボーダによってフィルム画像1を分割しても同じ結果が得られるが、以下の説明では、フレームに記録された画像2を切り出すと表現する。
【0015】
また、検出されたボーダによって囲まれるフレームに、必ずしも画像が記録されているとは限らない。そのような場合、詳細は後述するが、そのフレームの画像を切り出すことはない。
【0016】
[画像処理装置の構成]
図2は本発明にかかる画像処理装置110の構成例を示すブロック図である。
【0017】
図2において、CPU101は、ROM102やハードディスク(HD)107などに格納された各種のプログラムに基づき、バス104を介して画像処理装置10全体を制御するとともに、RAM103をワークメモリとして利用して医用画像の切り出し処理を含む各種の画像処理や通信処理を実行する。
【0018】
スキャナインタフェイス105には、フィルム画像1などを読み取るためのイメージスキャナ(またはフィルムスキャナ)120が接続される。USB(Universal Serial BUS)インタフェイス106には、画像処理装置110が実行すべき処理などの指示やテキスト情報をオペレータが入力するために、キーボードやマウスなどの入力デバイス109が接続される。ネットワークインタフェイス108は、Ethernetなどのネットワーク125へ画像処理装置110を接続するためのものである。ビデオインタフェイス111には、取得されたフィルム画像1や切り出された医用画像の表示、および、処理条件や処理状況の表示などに使用されるCRTやLCDなどのモニタ127が接続される。
【0019】
イメージスキャナ120によって取得されたフィルム画像1や切り出された画像2は、一旦、HD107に格納され、必要に応じて、ネットワーク125を介して例えばコンピュータ123や124、イメージャ122に接続された画像出力装置121、または、DICOMプロトコルに対応したインタフェイスをもつDICOMプリンタ126へ送られる。コンピュータ123や124は、ネットワーク、画像データベース、画像ビュワー、イメージャなどを用いて医用画像をファイリング、ビューイング、プリントするPACS(Picture Archive and Communication System)と呼ばれるシステムを構成する。画像処理装置110は、ネットワークインタフェイス108を介して、PACSなどから送られてくる画像データを入力することもできる。
【0020】
画像処理装置110は、パーソナルコンピュータなどの汎用の装置を使って構成することが可能である。また、専用装置として構成することもでき、例えばイメージスキャナ、ビデオディジタイザ、ディジタルスチルカメラまたはディジタルビデオカメラと一体に構成することができる。
【0021】
[画像の切り出し処理]
図3は画像の切り出し手順の一例を説明するフローチャートで、CPU101によって実行される処理である。ステップS1でイメージスキャナ120などからフィルム画像1を取得する。取得されたフィルム画像1は以降の処理にためにHD107に格納される。
【0022】
●フレーム存在範囲の決定
ステップS2でフレームが存在する領域(以下では「フレーム存在範囲」と呼ぶ)を決定する。
【0023】
図4はステップS2で実行されるフレーム存在範囲の決定手順の一例を説明するフローチャートである。
【0024】
ステップS11でフィルム画像1を複製し、複製画像を二値化してフレーム存在範囲を決定するための二値画像を生成する。画像を二値化するのはフィルムの傷や汚れによる影響を最小に抑えるためである。なお、フレーム存在範囲の決定用画像はワークエリアであるRAM103上に展開すればよい。
【0025】
次に、ステップS12で二値画像を縦向きの複数の細長領域に分割して、ステップS13で各細長領域に含まれる画素の輝度値の分散を求める。続くステップS14およびS15では、二値画像を横向きの複数の細長領域に分割して、各細長領域に含まれる画素の輝度値の分散を求める。なお、細長領域の幅は、数画素から数十画素程度であるが、具体的には処理速度と処理精度とのトレードにより決定される。
【0026】
イメージスキャナ120などによって取得されるフィルム画像1をその特性により領域分割すれば、概略、フィルム外の画像領域、フィルム内の画像領域およびフレーム存在範囲に分けることができる。フィルム画像1の背景色を仮に黒色とすれば、フィルム外の画像領域は白色、フレーム存在範囲を除くフィルム内の画像領域は黒色と考えることができる。図5はフィルム画像1を縦向きの細長領域に分割した場合に得られる分散特性の一例を示す図である。図5に示されるように、画素の輝度値の分散が大きい領域はフレーム存在範囲であると判断することができる。
【0027】
このようにして、ステップS16では、ステップS12からS15で得られた各細長領域の分散からフレーム存在範囲を決定することができる。なお、フレーム存在範囲には、分散の大きな領域の外側の細長領域を幾つか含める。これは、フレームの並びに若干の傾きやずれがある場合を考慮したものである。また、以降の処理は、決定されたフレーム存在範囲に対して行えばよい。
【0028】
●ボーダ位置の検出
図3のステップS3およびS4では、縦向きのボーダ(以下では「縦ボーダ」と呼ぶ)の位置、および、横向きのボーダ(以下では「横ボーダ」と呼ぶ)の位置を検出する。
【0029】
図6はステップS3で実行される縦ボーダ位置の検出手順の一例を説明するフローチャートである。
【0030】
ステップS21でフィルム画像1を複製し、複製画像を二値化したボーダ検出用の二値画像を生成する。次に、ステップS22でボーダの色(背景色)を決定する。これは、ボーダの位置の検出を、画素値の分散だけで行うのではなく、ボーダの色も考慮して行うことによって検出精度を上げようとするものである。具体的には、フレーム存在範囲の二値画像を、白画素が連続する領域、および、黒画素が連続する領域に分割する。そして、分割された複数の領域の外接矩形を求め、それら外接矩形の中で最も長い辺をもつ外接矩形に囲まれた領域をボーダであると判断し、その領域の色をボーダの色(黒色または白色)とする。なお、外接矩形の面積ではなく辺でボーダ領域を検出するのは、ボーダの幅が狭いフィルム画像1を考慮したためである。
【0031】
次に、ステップS23でフレーム存在範囲を縦向きの細長領域に分割し、ステップS24で各細長領域の輝度値の分散を求め、ステップS25で分散が小さい細長領域を仮ボーダ領域として抽出する。そして、ステップS26で、抽出された仮ボーダ領域の色とボーダ色とが一致するか否かを判定し、一致しなければステップS27でその仮ボーダ領域を破棄する。
【0032】
そして、ステップS28の判定により、すべての細長領域についてステップS25からS27の処理が終了したと判断されたら、ステップS29でほぼ等間隔に並んだ仮ボーダ領域のセットを抽出し、ステップS30で抽出された仮ボーダ領域のセットから縦ボーダの位置を検出する。
【0033】
なお、ステップS4で実行される横ボーダ位置の検出については、縦ボーダ位置の検出における縦横の関係を入れ替えるだけであるから、その詳細説明を省略する。
【0034】
ここで、抽出された仮ボーダ領域からボーダ位置を検出する処理を、例えば、仮ボーダ領域の中心線をその位置とし、n個の仮ボーダ領域が検出されたとして、詳細に説明する。
【0035】
まず、式(1)の条件を満たす仮ボーダ領域のセットを抽出する。
D(B1-B2) = D(B2-B3) = … = D(Bm-1-Bm) …(1)
ただし、B1,B2,B3,…,Bm-1,Bmはボーダ位置、m ≦ n
D(Bi-Bj)はボーダiとボーダjとの間隔
【0036】
なお、上述したフレーム存在範囲の決定する際の都合から、式(1)におれるB1およびBmは、通常、フレーム存在範囲の外側に位置する。
【0037】
さて、式(1)を満たすようなセットは多数存在する可能性があるので、さらに絞り込みを行い、ボーダ位置を検出(決定)する。絞り込みの条件としては次のようなものである。
(1)ボーダの数は、上限値を超えない範囲で、できるだけ多くなるようにする。例えばフレームの並びを最大6にする場合、上限値は7である。
(2)検出されたボーダの数がm、ボーダの間隔がDとする場合、フレーム存在範囲に対応する(m-1)Dができるだけ大きくなるようにする。
(3)フィルムの幅をWとして、例えば(m-1)D>αWになるようにする。ここでαは例えば0.55から0.75の範囲であるが、0.6程度にするのが望ましい。
【0038】
上記条件(1)は、例えば四枚に並んだ画像を二枚に切り出してしまうのを防ぐためである。上記条件(2)は、ボーダ数が同じでも、できるだけ大きなサイズの画像を切り出すためである。上記条件(3)は、フィルムの幅Wに対して幅が極端に小さい画像を検出しないようにするためである。
【0039】
●ボーダ位置の補正
ボーダ位置が検出されると各フレームのサイズが決定されるが、通常、フレームの形状は正方形か正方形に近い長方形である。つまりフレームの縦および横の長さHおよびWの比H/Wは「1」に近い値になるはずである。そこで、ステップS5でボーダ位置を補正する。
【0040】
図7はステップS5で実行されるボーダ位置の補正手順の一例を説明するフローチャートである。
【0041】
ステップS41でフレームの縦横比H/Wを求め、ステップS42でH/Wがβより小さいか否かを判定し、そうであればステップS43で縦方向に隣接する二つのフレームを結合する、言い換えれば二つのフレームに挟まれたボーダを破棄する。また、ステップS44でH/Wが1/βより大きいか否かを判定し、そうであればステップS45で横方向に隣接する二つのフレームを結合する。βとしては例えば0.6から0.8の範囲であるが、望ましい値は0.65である。
【0042】
●画像の切り出しおよび空白フレームの検出
続いて、図3のステップS6で画像2を切り出す。具体的には、フレーム存在範囲の画像2を検出された縦横のボーダ位置で分割すればよい。
【0043】
次に、図8に一例を示すように一部のフレームには画像が存在しない空フレーム3もあるので、ステップS7で画像2が記録されていない空フレーム3か否かを判定する。具体的には、切り出された画像2全体の輝度値の分散を調べ、分散が非常に小さいければ画像がない空フレーム3と判断してステップS8でその画像を破棄する。次に、ステップS9で全てのフレームから画像2を切り出したか否かを判定し、未了であればステップS6へ戻り、完了であれば画像の切り出し処理を終了する。
【0044】
このように、本実施形態に従えば、マウスやディジタイザなどを使って切り出すべき画像2を指定する必要がなく、フィルム画像1から個々の画像2を正確に切り出して、容易かつ短時間に電子保管することができる。とくに、フイルムごとに異なる画像レイアウトをもつ多数のフィルムから画像2を切り出す必要がある場合に大きな効果が期待される。
【0045】
【発明の効果】
以上説明したように、本発明によれば、複数の小画像を縦横方向に略均等配置した医用画像から小画像を正確、容易かつ短時間に切り出すことができる。
【図面の簡単な説明】
【図1】フィルムから読み取られるフィルム画像を説明するための図、
【図2】本発明にかかる画像処理装置の構成例を示すブロック図、
【図3】画像の切り出し手順の一例を説明するフローチャート、
【図4】フレーム存在範囲の決定手順の一例を説明するフローチャート、
【図5】フィルム画像を横方向に分割した縦長の細長領域から得られる分散特性の一例を示す図、
【図6】縦ボーダ位置の検出手順の一例を説明するフローチャート、
【図7】ボーダ位置の補正手順の一例を説明するフローチャート、
【図8】一部のフレームに画像が存在しないフィルム画像を説明する図である。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and method, and more particularly to an image processing apparatus and method for digitally processing medical images.
[0002]
[Prior art]
When making a diagnosis by computer tomography (CT), first, a tomographic image of a patient is taken by an image diagnostic apparatus called a modality operated by a laboratory technician. This image is displayed on a video display on the console of the device. An inspection engineer operates a film recorder called an imager connected to the modality to instruct an image necessary for diagnosis, and the instructed image is input to the imager and hard-copied to a large format film. This film is handed over to the doctor as a diagnostic image for diagnosis of the patient. Usually, several frames of images are laid out on a single film.
[0003]
Medical images used for medical treatment such as the above diagnostic images are obliged to be stored. Conventionally, a film in which a medical image is hard-copied has been stored, but recently, the law has changed, and so-called electronic storage in which a medical image is stored as digital data has become possible.
[0004]
[Problems to be solved by the invention]
When medical images are stored electronically, it is desirable that the images can be searched and displayed in units of one sheet. Furthermore, DICOM (Digital Imaging and Communication in Medicine), which is becoming an international standard for digital communication of medical images, also employs a mechanism for managing images one by one.
[0005]
Therefore, when electronically storing a plurality of medical images hard-copied on a single film, it is necessary to divide and store the images one by one. Therefore, it is necessary to cut out individual images from images recorded on the entire film read by the scanner (hereinafter referred to as “film images”).
[0006]
An object of the present invention is to cut out a small image accurately, easily, and in a short time from a medical image in which a plurality of small images are arranged substantially equally in the vertical and horizontal directions .
[0007]
[Means for Solving the Problems]
The present invention has the following configuration as one means for achieving the above object.
[0008]
An image processing apparatus according to the present invention includes an input unit that inputs a medical image in which a plurality of small images are arranged substantially equally in the vertical and horizontal directions, a binarizing unit that converts the medical image into a binary image, Detection means for detecting the existence range of the small image based on dispersion of pixel values, and dividing the binary image of the existence range of the small image into a region where white pixels are continuous and a region where black pixels are continuous, and the divided Determining means for determining a circumscribed rectangle of the area, determining a color of an area surrounded by the circumscribed rectangle having the longest side in the circumscribed rectangle as a color of a border area between the plurality of small images, and an existence range of the small image And cutting means for cutting out the small images individually based on the color of the border region .
[0009]
An image processing method according to the present invention is an image processing method of an apparatus for image processing of a medical image in which a plurality of small images are arranged substantially equally in the vertical and horizontal directions, and the medical image is input and the medical image is converted into a binary image. An area where white pixels are continuous and an area where black pixels are continuous in the binary image of the small image existing range based on a variance of pixel values of the binary image. divided into the calculated circumscribed rectangles of the divided regions, and determines the color of the border region between the circumscribing the longest circumscribed rectangle having sides surrounding the color region of the plurality in small rectangular images, the small The small image is cut out individually based on the existence range of the image and the color of the border region .
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings.
[0011]
[Principle of image cropping]
FIG. 1 is a diagram for explaining a film image 1 read from a film.
[0012]
As shown in FIG. 1, a plurality of medical images are recorded on, for example, a half-cut film (about 35 cm × 43 cm) in a state of being arranged in a grid pattern. These images 2 have a side of several centimeters to several tens of centimeters, and are recorded on a single film so as to have the same size. Also, there is a background area (hereinafter referred to as “border”) having a width of several millimeters to several tens of millimeters as an area that separates images from each other. Since the background area is almost transparent or opaque on the film, the color of the background area of the film image 1 is almost black or white.
[0013]
In the following explanation, one to six images 2 are arranged in one film image 1 in the vertical and horizontal directions, that is, one film image 1 is described as having a maximum of 36 images 2. It is not limited to this. An area where the image 2 on the film image 1 is arranged is called a frame.
[0014]
In order to cut out individual images from the film image 1, it is necessary to detect the position of each frame on the film image 1. In the present embodiment, a border is detected, an area surrounded by the border is recognized as a frame, and the image 2 recorded in the frame is cut out. Of course, even if the film image 1 is divided by the detected border, the same result can be obtained, but in the following description, it is expressed that the image 2 recorded in the frame is cut out.
[0015]
In addition, an image is not always recorded in a frame surrounded by the detected border. In such a case, although details will be described later, the image of the frame is not cut out.
[0016]
[Configuration of image processing apparatus]
FIG. 2 is a block diagram showing a configuration example of the image processing apparatus 110 according to the present invention.
[0017]
In FIG. 2, a CPU 101 controls the entire image processing apparatus 10 via a bus 104 based on various programs stored in a ROM 102, a hard disk (HD) 107, and the like, and uses a RAM 103 as a work memory to medical images. Various image processes and communication processes including the cutout process are executed.
[0018]
An image scanner (or film scanner) 120 for reading a film image 1 or the like is connected to the scanner interface 105. An input device 109 such as a keyboard and a mouse is connected to a USB (Universal Serial BUS) interface 106 in order for an operator to input instructions and text information for processing to be executed by the image processing apparatus 110. The network interface 108 is for connecting the image processing apparatus 110 to a network 125 such as Ethernet. Connected to the video interface 111 is a monitor 127 such as a CRT or LCD used to display the acquired film image 1 and the cut out medical image, and display the processing conditions and processing status.
[0019]
The film image 1 and the cut image 2 obtained by the image scanner 120 are temporarily stored in the HD 107 and, if necessary, an image output device connected to, for example, the computers 123 and 124 and the imager 122 via the network 125 121 or a DICOM printer 126 having an interface corresponding to the DICOM protocol. The computers 123 and 124 constitute a system called PACS (Picture Archive and Communication System) for filing, viewing, and printing medical images using a network, an image database, an image viewer, an imager, and the like. The image processing apparatus 110 can also input image data sent from a PACS or the like via the network interface 108.
[0020]
The image processing apparatus 110 can be configured using a general-purpose apparatus such as a personal computer. Also, it can be configured as a dedicated device, and can be configured integrally with, for example, an image scanner, a video digitizer, a digital still camera, or a digital video camera.
[0021]
[Image clipping process]
FIG. 3 is a flowchart for explaining an example of an image cut-out procedure, which is a process executed by the CPU 101. In step S1, film image 1 is obtained from image scanner 120 or the like. The acquired film image 1 is stored in the HD 107 for subsequent processing.
[0022]
Frame determining range determination Step S2 determines a region where a frame exists (hereinafter referred to as “frame existing range”).
[0023]
FIG. 4 is a flowchart for explaining an example of the procedure for determining the frame existence range executed in step S2.
[0024]
In step S11, the film image 1 is duplicated, and the duplicate image is binarized to generate a binary image for determining the frame existence range. The reason for binarizing the image is to minimize the effects of film scratches and dirt. The frame existence range determination image may be developed on the RAM 103, which is a work area.
[0025]
Next, in step S12, the binary image is divided into a plurality of vertically elongated regions, and in step S13, the variance of the luminance values of the pixels included in each elongated region is obtained. In subsequent steps S14 and S15, the binary image is divided into a plurality of horizontally elongated regions, and the distribution of luminance values of pixels included in each elongated region is obtained. Note that the width of the elongated region is about several pixels to several tens of pixels, but is specifically determined by a trade-off between processing speed and processing accuracy.
[0026]
If the film image 1 acquired by the image scanner 120 or the like is divided into regions according to the characteristics, it can be roughly divided into an image region outside the film, an image region in the film, and a frame existence range. If the background color of the film image 1 is assumed to be black, the image area outside the film can be considered white, and the image area inside the film excluding the frame existence range can be considered black. FIG. 5 is a diagram showing an example of dispersion characteristics obtained when the film image 1 is divided into vertically elongated regions. As shown in FIG. 5, it can be determined that the region where the variance of the luminance values of the pixels is large is the frame existence range.
[0027]
In this way, in step S16, the frame existence range can be determined from the dispersion of the respective elongated regions obtained in steps S12 to S15. It should be noted that the frame existence range includes some elongated regions outside the highly dispersed region. This is in consideration of the case where there is a slight tilt or shift of the frame. Further, the subsequent processing may be performed on the determined frame existence range.
[0028]
● Border Position Detection Steps S3 and S4 in Fig. 3 detect the position of the vertical border (hereinafter referred to as "vertical border") and the position of the horizontal border (hereinafter referred to as "horizontal border"). To do.
[0029]
FIG. 6 is a flowchart for explaining an example of the detection procedure of the vertical border position executed in step S3.
[0030]
In step S21, the film image 1 is duplicated, and a binary image for border detection is generated by binarizing the duplicate image. Next, the border color (background color) is determined in step S22. This is to increase the detection accuracy by detecting the border position not only by dispersion of pixel values but also by considering the border color. Specifically, the binary image in the frame existence range is divided into a region where white pixels are continuous and a region where black pixels are continuous. Then, the circumscribed rectangles of the plurality of divided areas are obtained, the area surrounded by the circumscribed rectangle having the longest side among the circumscribed rectangles is determined as the border, and the color of the area is set to the border color (black). Or white). The reason why the border region is detected by the side rather than the area of the circumscribed rectangle is that the film image 1 having a narrow border is considered.
[0031]
Next, in step S23, the frame existence range is divided into vertically elongated regions, and in step S24, the luminance value variance of each elongated region is obtained. In step S25, the elongated region having a small variance is extracted as a temporary border region. In step S26, it is determined whether or not the color of the extracted temporary border area matches the border color. If they do not match, the temporary border area is discarded in step S27.
[0032]
Then, if it is determined by the determination in step S28 that the processing from steps S25 to S27 has been completed for all the elongated regions, a set of temporary border regions arranged at approximately equal intervals is extracted in step S29, and extracted in step S30. The position of the vertical border is detected from the set of temporary border areas.
[0033]
Note that the detection of the horizontal border position executed in step S4 only replaces the vertical / horizontal relationship in the detection of the vertical border position, and thus detailed description thereof is omitted.
[0034]
Here, the processing for detecting the border position from the extracted temporary border area will be described in detail assuming that n temporary border areas are detected with the center line of the temporary border area as the position.
[0035]
First, a temporary border region set that satisfies the condition of Expression (1) is extracted.
D (B 1 -B 2 ) = D (B 2 -B 3 ) =… = D (B m-1 -B m )… (1)
Where B 1 , B 2 , B 3 , ..., B m-1 , B m are border positions, m ≤ n
D (B i -B j ) is the distance between border i and border j
Note that, for the convenience of determining the frame existence range described above, B 1 and B m in the equation (1) are usually located outside the frame existence range.
[0037]
Now, since there may be many sets satisfying the expression (1), further narrowing down is performed to detect (determine) the border position. The conditions for narrowing down are as follows.
(1) The number of borders should be as large as possible without exceeding the upper limit. For example, if the maximum number of frames is 6, the upper limit is 7.
(2) When the number of detected borders is m and the border interval is D, (m−1) D corresponding to the frame existence range is made as large as possible.
(3) When the width of the film is W, for example, (m−1) D> αW. Here, α is in the range of 0.55 to 0.75, for example, but is preferably about 0.6.
[0038]
The condition (1) is to prevent, for example, cutting out four images arranged in two into two. The above condition (2) is to cut out an image having as large a size as possible even when the number of borders is the same. The condition (3) is for preventing an image having an extremely small width with respect to the width W of the film from being detected.
[0039]
● Correction of border position When the border position is detected, the size of each frame is determined. Usually, the shape of the frame is a square or a rectangle close to a square. That is, the ratio H / W of the vertical and horizontal lengths H and W of the frame should be close to “1”. Therefore, the border position is corrected in step S5.
[0040]
FIG. 7 is a flowchart for explaining an example of the border position correction procedure executed in step S5.
[0041]
In step S41, the aspect ratio H / W of the frame is obtained. In step S42, it is determined whether or not H / W is smaller than β. If so, in step S43, two frames adjacent in the vertical direction are combined. For example, the border between two frames is discarded. In step S44, it is determined whether or not H / W is greater than 1 / β. If so, two adjacent frames in the horizontal direction are combined in step S45. For example, β is in the range of 0.6 to 0.8, but a desirable value is 0.65.
[0042]
Image Cutting and Blank Frame Detection Subsequently, image 2 is cut out in step S6 of FIG. Specifically, the image 2 in the frame existence range may be divided at the detected vertical and horizontal border positions.
[0043]
Next, as shown in an example in FIG. 8, since there are empty frames 3 in which some images do not exist, it is determined in step S7 whether or not the empty frame 3 has no image 2 recorded therein. Specifically, the variance of the luminance values of the entire image 2 that has been cut out is examined. If the variance is very small, it is determined that there is no image, and the image is discarded in step S8. Next, in step S9, it is determined whether or not the image 2 has been cut out from all the frames. If not completed, the process returns to step S6, and if completed, the image cutting process is terminated.
[0044]
As described above, according to this embodiment, it is not necessary to specify an image 2 to be cut out using a mouse, a digitizer, or the like, and an individual image 2 is accurately cut out from the film image 1 for easy and short-term electronic storage. can do. In particular, a large effect is expected when it is necessary to cut out image 2 from a large number of films having different image layouts for each film.
[0045]
【The invention's effect】
As described above, according to the present invention, a small image can be cut out accurately, easily and in a short time from a medical image in which a plurality of small images are arranged substantially equally in the vertical and horizontal directions .
[Brief description of the drawings]
FIG. 1 is a diagram for explaining a film image read from a film;
FIG. 2 is a block diagram showing a configuration example of an image processing apparatus according to the present invention;
FIG. 3 is a flowchart for explaining an example of an image clipping procedure;
FIG. 4 is a flowchart for explaining an example of a procedure for determining a frame existence range;
FIG. 5 is a diagram showing an example of dispersion characteristics obtained from a vertically elongated region obtained by dividing a film image in the horizontal direction;
FIG. 6 is a flowchart for explaining an example of a procedure for detecting a vertical border position;
FIG. 7 is a flowchart for explaining an example of a border position correction procedure;
FIG. 8 is a diagram illustrating a film image in which no image exists in some frames.

Claims (6)

複数の小画像を縦横方向に略均等配置した医用画像を入力する入力手段と、
前記医用画像を二値画像にする二値化手段と、
前記二値画像の画素値の分散に基づき前記小画像の存在範囲を検出する検出手段と、
前記小画像の存在範囲の二値画像を白画素が連続する領域と黒画素が連続する領域に分割し、前記分割した領域の外接矩形を求め、前記外接矩形の中で最長の辺をもつ外接矩形が囲む領域の色を前記複数の小画像間のボーダ領域の色と判定する判定手段と、
前記小画像の存在範囲および前記ボーダ領域の色に基づき、前記小画像を個々に切り出す切出手段とを有することを特徴とする画像処理装置。
Input means for inputting a medical image in which a plurality of small images are arranged substantially equally in the vertical and horizontal directions;
Binarizing means for converting the medical image into a binary image;
Detecting means for detecting an existence range of the small image based on a variance of pixel values of the binary image ;
The binary image of the existence range of the small image is divided into a region where white pixels are continuous and a region where black pixels are continuous, a circumscribed rectangle of the divided region is obtained, and a circumscribed rectangle having the longest side among the circumscribed rectangles Determining means for determining a color of an area surrounded by a rectangle as a color of a border area between the plurality of small images;
An image processing apparatus comprising: an extraction unit that individually extracts the small image based on an existence range of the small image and a color of the border region .
前記検出手段は、前記二値画像から前記小画像を含む画像領域を検出し、前記画像領域を縦および横に区切る前記ボーダ領域を検出することにより、前記小画像の存在範囲を検出することを特徴とする請求項1に記載された画像処理装置。Said detecting means, by said the binary image to detect an image area including the small image, detects the border region that separates the image area in the vertical and horizontal, detecting the existence range of the small image 2. The image processing apparatus according to claim 1, wherein さらに、前記ボーダ領域が囲むフレーム領域の縦横比H/Wと所定値βを比較して、H/W<βの場合は縦方向に隣接するフレーム領域を結合するためにそれらフレーム領域間のボーダ領域を破棄し、H/W>1/βの場合は横方向に隣接するフレーム領域を結合するためにそれらフレーム領域間のボーダ領域を破棄する補正手段を有することを特徴とする請求項2に記載された画像処理装置。Further, the aspect ratio H / W of the frame region surrounded by the border region is compared with a predetermined value β. If H / W <β, the border regions between the frame regions are combined to join the frame regions adjacent in the vertical direction. 3. The correction means for discarding a border region between the frame regions in order to discard the regions and to combine adjacent frame regions in the horizontal direction when H / W> 1 / β. The described image processing apparatus. 前記切出手段は、切り出した小画像の画素値の分散が小さい場合は、その小画像を破棄することを特徴とする請求項1から請求項3の何れか一項に記載された画像処理装置。It said cutting means, when the variance of the pixel values of the small image cut out is small, image processing apparatus according to any one of claims 1 to 3, characterized in that discarding the small image . 複数の小画像を縦横方向に略均等配置した医用画像を画像処理する装置の画像処理方法であって、
前記医用画像を入力し、
前記医用画像を二値画像に二値化し、
前記二値画像の画素値の分散に基づき前記小画像の存在範囲を検出し、
前記小画像の存在範囲の二値画像を白画素が連続する領域と黒画素が連続する領域に分割し、前記分割した領域の外接矩形を求め、前記外接矩形の中で最長の辺をもつ外接矩形が囲む領域の色を前記複数の小画像間のボーダ領域の色と判定し、
前記小画像の存在範囲および前記ボーダ領域の色に基づき、前記小画像を個々に切り出すことを特徴とする画像処理方法。
An image processing method of an apparatus for performing image processing on a medical image in which a plurality of small images are arranged substantially equally in the vertical and horizontal directions,
Enter the medical image,
Binarizing the medical image into a binary image;
Detecting the existence range of the small image based on the variance of the pixel values of the binary image ;
The binary image of the existence range of the small image is divided into a region where white pixels are continuous and a region where black pixels are continuous, a circumscribed rectangle of the divided region is obtained, and a circumscribed rectangle having the longest side among the circumscribed rectangles Determining the color of the area enclosed by the rectangle as the color of the border area between the plurality of small images;
An image processing method, wherein the small images are cut out individually based on the existence range of the small images and the color of the border region .
コンピュータを制御して、請求項5に記載された画像処理を実現するプログラムが記録されたことを特徴とするコンピュータが読み取り可能な記録媒体。6. A computer-readable recording medium in which a program for controlling the computer to realize the image processing according to claim 5 is recorded.
JP15857999A 1999-06-04 1999-06-04 Image processing apparatus and method Expired - Fee Related JP4494553B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15857999A JP4494553B2 (en) 1999-06-04 1999-06-04 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15857999A JP4494553B2 (en) 1999-06-04 1999-06-04 Image processing apparatus and method

Publications (3)

Publication Number Publication Date
JP2000342539A JP2000342539A (en) 2000-12-12
JP2000342539A5 JP2000342539A5 (en) 2006-07-20
JP4494553B2 true JP4494553B2 (en) 2010-06-30

Family

ID=15674782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15857999A Expired - Fee Related JP4494553B2 (en) 1999-06-04 1999-06-04 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP4494553B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4761883B2 (en) * 2005-08-10 2011-08-31 日立コンピュータ機器株式会社 Medical image processing system, medical image processing program, and medical image processing method
JP5343190B2 (en) * 2008-02-04 2013-11-13 株式会社日立情報通信エンジニアリング Image processing apparatus and image processing program
JP5204035B2 (en) * 2009-05-19 2013-06-05 日立コンピュータ機器株式会社 Image processing apparatus, processing method, and processing program
JP2013218131A (en) * 2012-04-10 2013-10-24 Panasonic Corp Image display system and image display device
JP6930418B2 (en) * 2017-12-26 2021-09-01 株式会社Jvcケンウッド Image cropping device and method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0786659B2 (en) * 1988-03-19 1995-09-20 富士写真フイルム株式会社 Radiation image division pattern recognition method
JP2524208B2 (en) * 1988-10-04 1996-08-14 富士写真フイルム株式会社 Unexposed recognition method
JPH06245928A (en) * 1993-02-26 1994-09-06 Fuji Photo Film Co Ltd Method and device for recording divided pattern
JP3855378B2 (en) * 1997-07-16 2006-12-06 コニカミノルタホールディングス株式会社 Radiation image storage method and radiation image storage device

Also Published As

Publication number Publication date
JP2000342539A (en) 2000-12-12

Similar Documents

Publication Publication Date Title
US5740267A (en) Radiographic image enhancement comparison and storage requirement reduction system
US6697506B1 (en) Mark-free computer-assisted diagnosis method and system for assisting diagnosis of abnormalities in digital medical images using diagnosis based image enhancement
US20070109402A1 (en) Medical image display system, medical image display method, and medical image display program
US5777753A (en) Method and apparatus for maximizing the number of radiological images printed on sheet of film
JP3167363B2 (en) Region of interest setting method and image processing apparatus
CN112786163A (en) Ultrasonic image processing and displaying method and system and storage medium
JP2007282771A (en) Medical information processor, and program
JP4494553B2 (en) Image processing apparatus and method
US20100080438A1 (en) Radiation image diagnosing system
US7174515B1 (en) Method and apparatus for independent display in a computer-aided detection system
US20050245804A1 (en) Medical image diagnosis apparatus
US6631499B1 (en) Laser image connectable to medical modality of a workstation
Gray et al. Report of a national neurosurgical emergency teleconsulting system
EP1486917A2 (en) Medical image processing system and method
JP3530210B2 (en) Image output control device
JP2001169086A (en) Picture processor, picture processing system, picture arranging method and storage medium
JP2013114189A (en) Image display device and control method thereof
JP3783895B2 (en) Image processing apparatus and method
JP2006271800A (en) Image processing apparatus, method and program
JPH0991407A (en) Panorama image synthesis system and panorama image synthesis method
JP4591142B2 (en) Medical imaging system
US20040186370A1 (en) Medical image processing system, medical image pickup system and method of administrating medical images
JP4661209B2 (en) Medical image output system
JP4761883B2 (en) Medical image processing system, medical image processing program, and medical image processing method
JP2005173818A (en) Medical image diagnostic support system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060602

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060602

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100315

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100408

R150 Certificate of patent or registration of utility model

Ref document number: 4494553

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130416

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130416

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160416

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees