図1は読取装置1の外観の一例を示す概略図である。読取装置1は、放射線像が記録されたイメージングプレート10から当該放射線像を読み取る装置である。読取装置1は、イメージングプレート10に記録された放射線像を検出する装置であるともいえる。
FIG. 1 is a schematic diagram showing an example of the external appearance of the reading device 1. As shown in FIG. The reading device 1 is a device that reads a radiation image from an imaging plate 10 on which the radiation image is recorded. The reading device 1 can also be said to be a device that detects a radiation image recorded on the imaging plate 10.
イメージングプレート10は、放射線像形成層11を有する平たい形状であり、放射線像を記録する記録媒体である。イメージングプレート10は、例えば、四隅が丸まった略長方形の平たい形状を成している。放射線像形成層11は、照射された放射線のエネルギーを蓄積し、蓄積されたエネルギーに応じた輝尽光を発する層である。例えば、放射線像形成層11は、樹脂で形成されたフィルムの一方主面に輝尽性蛍光体を塗布することによって形成される。放射線像形成層11に照射される放射線としては、例えばX線が採用される。X線発生器からのX線が撮影対象物を透過してイメージングプレート10に照射されると、X線の強度に応じたエネルギーが放射線像形成層11に蓄積される。X線の強度は、撮影対象物におけるX線吸収領域の分布に基づいたものであるため、放射線像形成層11に蓄積されたエネルギーの分布は、X線による撮影対象物の放射線像である。このように、イメージングプレート10は、例えばX線による放射線像を潜像として記録する。読取装置1は、放射線像形成層11から放射線像を読み取り、読み取った放射線像を表す画像信号(画像データともいう)を生成する。
The imaging plate 10 has a flat shape and has a radiation image forming layer 11, and is a recording medium for recording radiation images. The imaging plate 10 has, for example, a substantially rectangular flat shape with four rounded corners. The radiation image forming layer 11 is a layer that accumulates the energy of the irradiated radiation and emits photostimulated light according to the accumulated energy. For example, the radiation image forming layer 11 is formed by applying a stimulable phosphor to one main surface of a film made of resin. As the radiation irradiated to the radiation image forming layer 11, for example, X-rays are employed. When the X-rays from the X-ray generator pass through the object to be imaged and are irradiated onto the imaging plate 10, energy corresponding to the intensity of the X-rays is accumulated in the radiation image forming layer 11. Since the intensity of X-rays is based on the distribution of X-ray absorption regions in the object to be imaged, the distribution of energy accumulated in the radiation image forming layer 11 is a radiation image of the object to be imaged by X-rays. In this way, the imaging plate 10 records, for example, a radiation image of X-rays as a latent image. The reading device 1 reads a radiation image from the radiation image forming layer 11 and generates an image signal (also referred to as image data) representing the read radiation image.
本例では、イメージングプレート10は、例えば、人の口の中に入れられた状態で放射線が照射される。したがって、イメージングプレート10は、人の口の中に入るようなサイズとなっている。そして、イメージングプレート10の放射線像形成層11には、例えば、歯の放射線像が記録される。なお、イメージングプレート10の用途はこれに限られない。
In this example, the imaging plate 10 is irradiated with radiation while being placed in a person's mouth, for example. Therefore, the imaging plate 10 is sized to fit inside a person's mouth. In the radiation image forming layer 11 of the imaging plate 10, for example, a radiation image of teeth is recorded. Note that the use of the imaging plate 10 is not limited to this.
以後、イメージングプレート10において、放射線像形成層11側の主面を前面と呼ぶことがある。また、イメージングプレート10において、前面とは反対側の主面を裏面と呼ぶことがある。
Hereinafter, in the imaging plate 10, the main surface on the radiation image forming layer 11 side may be referred to as the front surface. Further, in the imaging plate 10, the main surface opposite to the front surface may be referred to as the back surface.
図1に示されるように、読取装置1は例えば筐体2を備える。筐体2内には、イメージングプレート10から放射線像を読み取る構成が収容されている。当該構成については後述する。
As shown in FIG. 1, the reading device 1 includes a housing 2, for example. Inside the housing 2, a configuration for reading a radiation image from the imaging plate 10 is housed. The configuration will be described later.
筐体2には、挿入口2a及び取出口2bが設けられている。挿入口2aは、例えば筐体2の上面に設けられている。読取装置1のユーザは、挿入口2aからイメージングプレート10を筐体2内に入れることができる。イメージングプレート10は、筐体2内において放射線像が読み取られる。取出口2bは、例えば、筐体2の一側面のうちの下側部分に設けられる。放射線像が読み取られた後のイメージングプレート10(読み取り済みイメージングプレート10ともいう)は取出口2bに排出される。読取装置1のユーザは、取出口2bを通じて、読み取り済みイメージングプレート10を回収することができる。
The housing 2 is provided with an insertion port 2a and an output port 2b. The insertion port 2a is provided, for example, on the top surface of the housing 2. A user of the reading device 1 can insert the imaging plate 10 into the housing 2 through the insertion port 2a. A radiation image of the imaging plate 10 is read within the housing 2 . The outlet 2b is provided, for example, in a lower portion of one side of the housing 2. The imaging plate 10 after the radiation image has been read (also referred to as the read imaging plate 10) is discharged to the outlet 2b. The user of the reading device 1 can collect the read imaging plate 10 through the ejection port 2b.
本例では、読取装置1は、イメージングプレート10から放射線像を読み出した後に、イメージングプレート10から放射線像を消去することができる。取出口2bには、例えば、放射線像が消去されたイメージングプレート10が排出される。
In this example, the reading device 1 can erase the radiation image from the imaging plate 10 after reading the radiation image from the imaging plate 10. For example, the imaging plate 10 from which the radiation image has been erased is discharged to the outlet 2b.
筐体2には、例えば、ユーザからの操作を受け付ける操作部4が設けられている。操作部4は、例えば複数の操作ボタン4aを備える。各操作ボタン4aは、例えばハードウェアボタンである。複数の操作ボタン4aには、例えば、電源ボタン及び読み取りの開始を指示するためのスタートボタン等が含まれる。操作部4は、ユーザのタッチ操作を検出するタッチセンサを備えてもよい。
The housing 2 is provided with, for example, an operation unit 4 that accepts operations from a user. The operation unit 4 includes, for example, a plurality of operation buttons 4a. Each operation button 4a is, for example, a hardware button. The plurality of operation buttons 4a include, for example, a power button and a start button for instructing the start of reading. The operation unit 4 may include a touch sensor that detects a user's touch operation.
筐体2には、例えば、表示部3が設けられている。表示部3は、例えば、液晶表示パネルあるいは有機EL(electro-luminescence)表示パネルにより構成される。表示部3は、例えば、文字、記号、図形及び画像などの各種情報を表示することが可能である。表示部3は、イメージングプレート10から読み取られた放射線像(言い換えれば、検出された放射線像)を表示してもよい。
The housing 2 is provided with a display section 3, for example. The display unit 3 is composed of, for example, a liquid crystal display panel or an organic EL (electro-luminescence) display panel. The display unit 3 is capable of displaying various information such as, for example, characters, symbols, figures, and images. The display unit 3 may display a radiation image read from the imaging plate 10 (in other words, a detected radiation image).
操作部4がタッチセンサを備える場合、当該タッチセンサと表示部3とで、表示機能及びタッチ検出機能を有するタッチパネルディスプレイが構成されてもよい。この場合、複数の操作ボタン4aの少なくとも一つが、タッチパネルディスプレイに表示されるソフトウェアボタンに置き換えられてもよいし、操作部4は複数の操作ボタン4aを備えなくてもよい。また、読取装置1は表示部3を備えなくてもよい。
When the operation unit 4 includes a touch sensor, the touch sensor and the display unit 3 may constitute a touch panel display having a display function and a touch detection function. In this case, at least one of the plurality of operation buttons 4a may be replaced with a software button displayed on the touch panel display, and the operation unit 4 does not need to include the plurality of operation buttons 4a. Furthermore, the reading device 1 does not need to include the display section 3.
筐体2には、例えば、イメージングプレート10を収容可能なプレート収容ケース6及び7が設けられている。プレート収容ケース6及び7は、例えば筐体2の上面に設けられている。プレート収容ケース6は仕切り付きのケースであり、プレート収容ケース7は蓋付きのケースである。読取装置1はプレート収容ケース6及び7の少なくとも一方を備えなくてもよい。
The housing 2 is provided with plate housing cases 6 and 7 that can house the imaging plate 10, for example. The plate storage cases 6 and 7 are provided on the upper surface of the housing 2, for example. The plate storage case 6 is a case with a partition, and the plate storage case 7 is a case with a lid. The reading device 1 does not need to include at least one of the plate storage cases 6 and 7.
筐体2からは、その外側に向かって、ACアダプタ5のケーブル5aが延びている。読取装置1の各部品には、ACアダプタ5から電力が供給される。読取装置1は、ACアダプタ5だけではなく、読取装置1の各部品に電力を供給するバッテリを備えてもよい。あるいは、読取装置1は、ACアダプタ5の代わりにバッテリを備えてもよい。
A cable 5a of an AC adapter 5 extends outward from the housing 2. Each component of the reading device 1 is supplied with power from an AC adapter 5. The reading device 1 may include not only the AC adapter 5 but also a battery that supplies power to each component of the reading device 1. Alternatively, the reading device 1 may include a battery instead of the AC adapter 5.
<筐体内の機構の一例について>
図2~5は筐体2内の構成の一例を示す概略図である。図3は図2の矢視A-Aの断面構造の一例を示す概略図である。図5は図4の矢視B-Bの断面構造の一例を示す概略図である。図6は読取装置1が備える制御部80の構成の一例を主に示すブロック図である。後述するように、イメージングプレート10を保持する保持部20は、筐体2内において、所定方向DR10に沿って移動することが可能である。図4は、イメージングプレート10及び保持部20が、図2に示される状態から移動した様子が示されている。
<An example of the mechanism inside the housing>
2 to 5 are schematic diagrams showing an example of the configuration inside the casing 2. FIGS. FIG. 3 is a schematic diagram showing an example of a cross-sectional structure taken along arrow AA in FIG. FIG. 5 is a schematic diagram showing an example of a cross-sectional structure taken along arrow BB in FIG. FIG. 6 is a block diagram mainly showing an example of the configuration of the control section 80 included in the reading device 1. As shown in FIG. As will be described later, the holding section 20 that holds the imaging plate 10 can move within the housing 2 along a predetermined direction DR10. FIG. 4 shows how the imaging plate 10 and the holding part 20 have been moved from the state shown in FIG.
図2~6に示されるように、読取装置1は、例えば、保持部20、光源30、検出器40、駆動部50、一対のガイド部60、消去用光源70、制御部80及びインタフェース部95を備える。これらの構成は筐体2内に設けられている。
As shown in Figures 2 to 6, the reading device 1 includes, for example, a holding unit 20, a light source 30, a detector 40, a driving unit 50, a pair of guide units 60, an erasing light source 70, a control unit 80, and an interface unit 95. These components are provided inside the housing 2.
<制御部について>
制御部80は、読取装置1の動作を統合的に管理することが可能であり、制御回路ともいえる。制御部80は、例えば、表示部3、保持部20、光源30、検出器40、駆動部50、消去用光源70及びインタフェース部95を制御することができる。また、制御部80は、操作部4が受け付けたユーザ操作に応じた処理を行うことができる。
<About the control unit>
The control unit 80 can integrally manage the operations of the reading device 1, and can also be called a control circuit. The control section 80 can control, for example, the display section 3, the holding section 20, the light source 30, the detector 40, the driving section 50, the erasing light source 70, and the interface section 95. Further, the control unit 80 can perform processing according to user operations received by the operation unit 4.
制御部80は、例えば、少なくとも一つのプロセッサと、記憶部とを備えるコンピュータ装置によって構成される。制御部80が備える少なくとも一つのプロセッサには、CPU(Central Processing Unit)が含まれてもよいし、CPU以外のプロセッサが含まれてもよい。制御部80では、少なくとも一つのプロセッサが記憶部(記憶回路ともいう)内のプログラムを実行することによって、以下に説明する各種機能が実現される。
The control unit 80 is configured by, for example, a computer device including at least one processor and a storage unit. At least one processor included in the control unit 80 may include a CPU (Central Processing Unit), or may include a processor other than the CPU. In the control unit 80, at least one processor executes a program in a storage unit (also referred to as a storage circuit), thereby realizing various functions described below.
制御部80では、少なくとも一つのプロセッサが記憶部内のプログラムを実行することによって、機能ブロックとして、例えば、画像処理部81、表示制御部82、駆動制御部83、保持制御部84、検出制御部85、発光制御部86及び消去制御部87が形成される。
In the control unit 80, at least one processor executes a program in the storage unit, so that functional blocks such as an image processing unit 81, a display control unit 82, a drive control unit 83, a holding control unit 84, and a detection control unit 85 are installed. , a light emission control section 86 and an erasure control section 87 are formed.
画像処理部81は、例えば、検出器40から出力される後述の画像信号に対して画像処理を行うことができる。表示制御部82は表示部3の表示を制御することができる。駆動制御部83は駆動部50を制御することができる。保持制御部84は保持部20を制御することができる。検出制御部85は検出器40を制御することができる。発光制御部86は光源30を制御することができる。消去制御部87は消去用光源70を制御することができる。
The image processing unit 81 can perform image processing on an image signal, which will be described later, output from the detector 40, for example. The display control unit 82 can control the display on the display unit 3. The drive control section 83 can control the drive section 50. The holding control unit 84 can control the holding unit 20. The detection control unit 85 can control the detector 40. The light emission control section 86 can control the light source 30. The erasing control section 87 can control the erasing light source 70.
なお、制御部80の一部の機能あるいは制御部80のすべての機能は、その機能の実現にソフトウェア(言い換えればプログラム)が不要なハードウェア回路で実現されてもよい。例えば、画像処理部81の一部の機能あるいは画像処理部81のすべての機能は、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。画像処理部81は、他の構成とは独立した画像処理回路であってもよい。また、表示制御部82の一部の機能あるいは表示制御部82のすべての機能は、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。表示制御部82は、他の構成とは独立した表示制御回路であってもよい。また、駆動制御部83の一部の機能あるいは駆動制御部83のすべての機能は、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。駆動制御部83は、他の構成とは独立した駆動制御回路であってもよい。また、保持制御部84の一部の機能あるいは保持制御部84のすべての機能は、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。保持制御部84は、他の構成とは独立した保持制御回路であってもよい。また、検出制御部85の一部の機能あるいは検出制御部85のすべての機能は、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。検出制御部85は、他の構成とは独立した検出制御回路であってもよい。また、発光制御部86の一部の機能あるいは発光制御部86のすべての機能は、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。発光制御部86は、他の構成とは独立した発光制御回路であってもよい。また、消去制御部87の一部の機能あるいは消去制御部87のすべての機能は、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。消去制御部88は、他の構成とは独立した消去制御回路であってもよい。
Note that some of the functions of the control unit 80 or all of the functions of the control unit 80 may be realized by a hardware circuit that does not require software (in other words, a program) to realize the functions. For example, some of the functions of the image processing section 81 or all of the functions of the image processing section 81 may be realized by a hardware circuit that does not require software to realize the functions. The image processing section 81 may be an image processing circuit independent from other components. Furthermore, some of the functions of the display control section 82 or all of the functions of the display control section 82 may be realized by a hardware circuit that does not require software to realize the functions. The display control unit 82 may be a display control circuit independent from other components. Furthermore, some of the functions of the drive control section 83 or all of the functions of the drive control section 83 may be realized by a hardware circuit that does not require software to realize the functions. The drive control section 83 may be a drive control circuit independent from other components. Furthermore, some of the functions of the holding control section 84 or all of the functions of the holding control section 84 may be realized by a hardware circuit that does not require software to realize the functions. The holding control section 84 may be a holding control circuit independent from other components. Furthermore, some of the functions of the detection control section 85 or all of the functions of the detection control section 85 may be realized by a hardware circuit that does not require software to realize the functions. The detection control section 85 may be a detection control circuit independent from other components. Furthermore, some of the functions of the light emission control section 86 or all of the functions of the light emission control section 86 may be realized by a hardware circuit that does not require software to realize the functions. The light emission control section 86 may be a light emission control circuit independent from other components. Furthermore, some functions of the erasure control section 87 or all of the functions of the erasure control section 87 may be realized by a hardware circuit that does not require software to realize the functions. The erasure control section 88 may be an erasure control circuit independent from other components.
<インタフェース部について>
インタフェース部95は、筐体2の外部の装置(以後、外部装置ともいう)と通信することが可能であって、インタフェース回路、通信回路あるいは通信部ともいえる。外部装置には、パーソナルコンピュータが含まれてもよいし、スマートフォン等の携帯電話機が含まれてもよいし、他のコンピュータ装置が含まれてもよい。また、外部装置には、読取装置1に着脱可能なデータ記録媒体(例えば、フラッシュメモリ)が含まれてもよい。インタフェース部95は、外部装置からの信号を受信し、受信した信号を制御部80に入力することができる。また、インタフェース部95は、制御部80からの信号を外部装置に送信することができる。例えば、インタフェース部95は、制御部80の画像処理部81において画像処理が行われた画像信号を外部装置に送信することができる。インタフェース部95は、外部装置と有線通信を行ってもよいし、無線通信を行ってもよい。インタフェース部95と外部装置との間の通信は、イーサネットに準拠してもよいし、USB(Universal Serial Bus)に準拠してもよいし、WiFiに準拠してもよいし、他の規格に準拠してもよい。
<About the interface section>
The interface section 95 is capable of communicating with a device outside the housing 2 (hereinafter also referred to as an external device), and can also be called an interface circuit, a communication circuit, or a communication section. The external device may include a personal computer, a mobile phone such as a smartphone, or another computer device. Further, the external device may include a data recording medium (for example, a flash memory) that is removably attachable to the reading device 1. The interface unit 95 can receive a signal from an external device and input the received signal to the control unit 80. Further, the interface section 95 can transmit a signal from the control section 80 to an external device. For example, the interface unit 95 can transmit an image signal subjected to image processing by the image processing unit 81 of the control unit 80 to an external device. The interface unit 95 may perform wired communication or wireless communication with an external device. Communication between the interface unit 95 and external devices may be based on Ethernet, USB (Universal Serial Bus), WiFi, or other standards. You may.
<保持部について>
保持部20は、筐体2の挿入口2aから挿入されたイメージングプレート10を保持する。保持部20は、例えば、イメージングプレート10を支持する支持板21と、支持板21に支持されたイメージングプレート10の位置を固定する固定部22とを備える。
<About the holding part>
The holding section 20 holds the imaging plate 10 inserted through the insertion opening 2a of the housing 2. The holding part 20 includes, for example, a support plate 21 that supports the imaging plate 10 and a fixing part 22 that fixes the position of the imaging plate 10 supported by the support plate 21.
支持板21は、イメージングプレート10の裏面を支持する主面21a(支持面21aともいう)と、当該主面21aとは反対側の主面21b(裏面21bともいう)とを備える。固定部22は、例えば、イメージングプレート10の周縁部分と接近する複数の固定部分22aを有する。固定部22は固定部材ともいえる。複数の固定部分22aは、イメージングプレート10の周縁部分を取り囲むように当該周縁部分と接近する。これにより、支持板21に対するイメージングプレート10の位置(つまり相対位置)及び姿勢(つまり相対姿勢)が固定される。本例では、例えば、イメージングプレート10の両長辺のそれぞれに対して2つの固定部分22aが接近し、イメージングプレート10の両短辺のそれぞれに対して1つの固定部分22aが接近する。
The support plate 21 includes a main surface 21a (also referred to as a support surface 21a) that supports the back surface of the imaging plate 10, and a main surface 21b (also referred to as a back surface 21b) on the opposite side to the main surface 21a. The fixing portion 22 includes, for example, a plurality of fixing portions 22a that are close to the peripheral edge portion of the imaging plate 10. The fixing portion 22 can also be called a fixing member. The plurality of fixed portions 22a approach the peripheral edge of the imaging plate 10 so as to surround the peripheral edge. Thereby, the position (that is, relative position) and attitude (that is, relative attitude) of imaging plate 10 with respect to support plate 21 is fixed. In this example, for example, two fixed portions 22a approach each of both long sides of the imaging plate 10, and one fixed portion 22a approaches each of both short sides of the imaging plate 10.
各固定部分22aは、保持制御部84による制御によって、支持板21に支持されたイメージングプレート10に接近する接近位置と、支持板21に支持されたイメージングプレート10から離間する離間位置との間で移動することが可能である。イメージングプレート10は、各固定部分22aが離間位置に存在する状態で、挿入口2aから筐体2内に投入されて、支持板21で支持される。その後、各固定部分22aが離間位置から接近位置に移動することによって、イメージングプレート10の位置及び姿勢が固定部22で固定される。各固定部分22aは、接近位置に存在する場合、例えば、イメージングプレート10の周縁部分と接している。
Each fixed portion 22a is controlled by the holding control unit 84 between an approach position where it approaches the imaging plate 10 supported by the support plate 21 and a separation position where it is separated from the imaging plate 10 supported by the support plate 21. It is possible to move. The imaging plate 10 is inserted into the housing 2 through the insertion port 2a and supported by the support plate 21, with the fixed portions 22a located at separate positions. Thereafter, the position and posture of the imaging plate 10 are fixed by the fixing portions 22 by moving each fixing portion 22a from the separated position to the approaching position. Each fixed portion 22a is in contact with a peripheral portion of the imaging plate 10, for example, when it is in the close position.
なお、複数の固定部分22aの少なくとも一つは、接近位置に存在する場合、イメージングプレート10の周縁部分と接しなくてもよい。また、固定部22の構成は上記の限りではない。また、保持部20の構成は上記の限りではない。
Note that at least one of the plurality of fixed portions 22a does not need to be in contact with the peripheral portion of the imaging plate 10 when it is present at the approach position. Further, the configuration of the fixing portion 22 is not limited to the above. Further, the configuration of the holding section 20 is not limited to the above.
<駆動部及び一対のガイド部について>
駆動部50は、駆動制御部83による制御によって、保持部20を所定方向DR10に沿って移動することが可能である。これにより、保持部20で保持されたイメージングプレート10も所定方向DR10に沿って移動することができる。駆動部50は、保持部20を通じてイメージングプレート10を所定方向DR10に沿って移動することが可能であるともいえる。
<About the drive section and pair of guide sections>
The drive unit 50 can move the holding unit 20 along the predetermined direction DR10 under the control of the drive control unit 83. Thereby, the imaging plate 10 held by the holding part 20 can also move along the predetermined direction DR10. It can also be said that the driving section 50 is capable of moving the imaging plate 10 along the predetermined direction DR10 through the holding section 20.
一対のガイド部60は、保持部20をその間に挟んだ状態で所定方向DR10に沿って延在している。各ガイド部60の内側には所定方向DR10に沿って延びる溝が形成されている。支持板21の互いに対向する一対の側縁部は、一対のガイド部60の内側の溝にそれぞれ嵌合している。これにより、一対のガイド部60は、保持部20の所定方向DR10に沿った移動を案内することが可能である。なお、ガイド部60の構成はこの限りではない。
The pair of guide parts 60 extend along the predetermined direction DR10 with the holding part 20 sandwiched between them. A groove extending along the predetermined direction DR10 is formed inside each guide portion 60. A pair of mutually opposing side edge portions of the support plate 21 fit into grooves inside the pair of guide portions 60, respectively. Thereby, the pair of guide parts 60 can guide the movement of the holding part 20 along the predetermined direction DR10. Note that the configuration of the guide section 60 is not limited to this.
駆動部50は、例えば、モータ51、ネジ軸部52及びナット部53を有するボールネジ機構で構成されている。モータ51は、駆動制御部83によって制御される。ネジ軸部52は、周囲にネジ溝が形成された棒状部材である。ネジ軸部52は、所定方向DR10に沿って延びており、モータ51によって回転させられる。ナット部53は、保持部20に固定されている。ナット部53は、例えば、保持部20の支持板21の裏面21bに固定されている。ネジ軸部52はナット部53に螺合している。モータ51の正転方向または逆転方向の回転に応じて、ネジ軸部52が正転方向または逆転方向に回転する。保持部20は、ネジ軸部52の正転方向の回転に応じて、所定方向DR10に沿って一方側に移動する。このとき、一対のガイド部60は、保持部20の一方側への移動を案内する。一方で、保持部20は、ネジ軸部52の逆転方向の回転に応じて、所定方向DR10に沿って他方側に移動する。このとき、一対のガイド部60は、保持部20の他方側への移動を案内する。駆動部50の構成はこの限りではない。
The drive unit 50 is composed of, for example, a ball screw mechanism having a motor 51, a screw shaft portion 52, and a nut portion 53. The motor 51 is controlled by a drive control section 83. The screw shaft portion 52 is a rod-shaped member with a screw groove formed around the periphery. The screw shaft portion 52 extends along the predetermined direction DR10 and is rotated by the motor 51. The nut part 53 is fixed to the holding part 20. The nut part 53 is fixed to the back surface 21b of the support plate 21 of the holding part 20, for example. The screw shaft portion 52 is screwed into the nut portion 53. In accordance with the rotation of the motor 51 in the forward or reverse direction, the screw shaft portion 52 rotates in the forward or reverse direction. The holding part 20 moves to one side along the predetermined direction DR10 in accordance with the rotation of the screw shaft part 52 in the normal rotation direction. At this time, the pair of guide parts 60 guide the movement of the holding part 20 to one side. On the other hand, the holding part 20 moves to the other side along the predetermined direction DR10 in accordance with the rotation of the screw shaft part 52 in the reverse direction. At this time, the pair of guide parts 60 guide the movement of the holding part 20 to the other side. The configuration of the drive unit 50 is not limited to this.
駆動部50は、イメージングプレート10からの放射線像の読み取りが開始する読取開始位置に、イメージングプレート10を保持した保持部20を移動させることができる。また、駆動部50は、イメージングプレート10からの放射線像の読み取りが終了すると、イメージングプレート10の放射線像の消去が行われる消去位置に、イメージングプレート10を保持した保持部20を移動させることができる。図2及び3には、イメージングプレート10からの放射線像の読み取りが行われる様子が示されている。図4及び5には、イメージングプレート10から放射線像が消去される様子が示されている。
The drive unit 50 can move the holding unit 20 holding the imaging plate 10 to a reading start position where reading of the radiation image from the imaging plate 10 starts. Furthermore, when the reading of the radiation image from the imaging plate 10 is completed, the drive unit 50 can move the holding unit 20 holding the imaging plate 10 to an erasing position where the radiation image of the imaging plate 10 is erased. . 2 and 3 show how a radiation image from the imaging plate 10 is read. 4 and 5 show how the radiation image is erased from the imaging plate 10.
<光源及び検出器について>
本例では、図6に示されるように、光源30と、それを制御する発光制御部86と、検出器40と、それを制御する検出制御部85とで、イメージングプレート10の前面から放射線像を読み取る光測定器90が構成されている。光測定器90を構成する光源30、検出器40、検出制御部85及び発光制御部86は、一つのケースに収容されてユニット化されてもよいし、一つのケースに収容されていなくてもよい。
<About the light source and detector>
In this example, as shown in FIG. 6, the light source 30, the light emission control section 86 that controls the light source, the detector 40, and the detection control section 85 that controls the radiation image from the front surface of the imaging plate 10. An optical measuring device 90 is configured to read the . The light source 30, the detector 40, the detection control section 85, and the light emission control section 86 that constitute the optical measurement device 90 may be housed in one case to form a unit, or may not be housed in one case. good.
光源30は、保持部20に保持されたイメージングプレート10に対して、放射線像形成層11を励起させるための励起光L10を照射することが可能である。励起光L10の照射対象は、例えば生体の放射線撮影の受光体となったイメージングプレート10である。光源30は保持部20の支持面21aに向けて励起光L10を出射する。光源30は、励起光L10をイメージングプレート10上で一方向(主走査方向DRmともいう)に走査することが可能である。主走査方向DRmは、所定方向DR10に対して垂直な方向である。つまり、主走査方向DRmは、保持部20の移動方向に対して垂直な方向である。また、光源30はイメージングプレート10のみでなく、イメージングプレート10の周囲の領域にも励起光L10を照射することが可能である。
The light source 30 can irradiate the imaging plate 10 held by the holding part 20 with excitation light L10 for exciting the radiation image forming layer 11. The object to be irradiated with the excitation light L10 is, for example, the imaging plate 10, which serves as a photoreceptor for radiography of a living body. The light source 30 emits excitation light L10 toward the support surface 21a of the holding section 20. The light source 30 can scan the excitation light L10 on the imaging plate 10 in one direction (also referred to as the main scanning direction DRm). The main scanning direction DRm is a direction perpendicular to the predetermined direction DR10. That is, the main scanning direction DRm is a direction perpendicular to the moving direction of the holding section 20. Further, the light source 30 can irradiate not only the imaging plate 10 but also the area around the imaging plate 10 with the excitation light L10.
本開示では、物体に作用する光を作用光L1と呼ぶ。そして、物体に作用光L1が作用して生じる光を被作用光L2と呼ぶ。励起光L10は作用光L1の一例である。輝尽光を生じさせる励起力を持たないが物体に反射光を生じさせる光も作用光L1の別例である。作用光L1は、励起光と、励起光ではない作用光との少なくとも1つからなる光であるともいえる。被作用光L2は、作用光L1の作用を受けて物体から発する光である。
In this disclosure, the light that acts on the object is referred to as acting light L1. The light generated by the action of the acting light L1 on the object is called the affected light L2. The excitation light L10 is an example of the action light L1. Another example of the action light L1 is light that does not have the excitation power that causes photostimulation but causes reflected light on an object. It can also be said that the action light L1 is light consisting of at least one of excitation light and action light that is not excitation light. The affected light L2 is light emitted from an object under the action of the acting light L1.
励起光L10は例えば可視光のレーザ光である。励起光L10は、例えば、赤色レーザ光であってもよいし、他の色のレーザ光であってもよい。検出器40は、例えば、作用光L1たる励起光L10の照射によって生じるイメージングプレート10からの被作用光L2を検出し、検出した被作用光L2の強度に応じた電気信号を出力する。また、検出器40は、励起光L10の照射によって生じるイメージングプレート10外からの被作用光L2を検出し、検出した被作用光L2の強度に応じた電気信号を出力する。
The excitation light L10 is, for example, a visible laser light. The excitation light L10 may be, for example, a red laser light or a laser light of another color. The detector 40 detects, for example, the acted light L2 from the imaging plate 10 generated by irradiation with the excitation light L10, which is the acted light L1, and outputs an electrical signal according to the intensity of the detected acted light L2. The detector 40 also detects the acted light L2 from outside the imaging plate 10 generated by irradiation with the excitation light L10, and outputs an electrical signal according to the intensity of the detected acted light L2.
光源30は、例えば、励起光L10を生成して出力するレーザ発生部と、励起光L10をイメージングプレート10上で主走査方向DRmに走査する走査部とを有する。レーザ発生部は、例えば半導体レーザ発振器を備え、発光制御部86によって制御される。レーザ発生部は、レーザダイオードを備えてもよいし、他の半導体レーザを備えてもよい。走査部は、例えば、レーザ発生部からの励起光L10を、イメージングプレート10の放射線像形成層11に向けて反射するMEMS(Micro Electro Mechanical Systems)ミラーを備える。MEMSミラーは、発光制御部86による制御によって、放射線像形成層11上での励起光L10の照射点が主走査方向DRmに移動するように励起光L10の反射角度を変化させる。走査部は、MEMSミラーに代えて、例えばガルバノミラーのような他のミラーを備えてもよい。
The light source 30 includes, for example, a laser generating section that generates and outputs the excitation light L10, and a scanning section that scans the excitation light L10 on the imaging plate 10 in the main scanning direction DRm. The laser generator includes, for example, a semiconductor laser oscillator, and is controlled by a light emission controller 86. The laser generator may include a laser diode or another semiconductor laser. The scanning section includes, for example, a MEMS (Micro Electro Mechanical Systems) mirror that reflects the excitation light L10 from the laser generating section toward the radiation image forming layer 11 of the imaging plate 10. The MEMS mirror changes the reflection angle of the excitation light L10 under the control of the light emission control unit 86 so that the irradiation point of the excitation light L10 on the radiation image forming layer 11 moves in the main scanning direction DRm. The scanning unit may include another mirror such as a galvano mirror instead of the MEMS mirror.
検出器40は、励起光L10の被照射位置からの被作用光L2を検出する。検出器40は、例えば、励起光L10の被照射位置からの被作用光L2(図3参照)が入射する光学フィルタ42と、光学フィルタ42から出射される被作用光L2を検出するセンサ41とを備える。センサ41は検出制御部85によって制御される。光学フィルタ42は、センサ41での被作用光L2の検出面に対向するように、かつ支持板21の主面21aと当該検出面との間に位置するように配置されている。すなわち、光学フィルタ42は励起光L10の被照射位置と検出面との間に配置されている。励起光L10の被照射位置からの被作用光L2がまず光学フィルタ42に入射し、濾過を経た被作用光L2が光学フィルタ42から出てセンサ41の検出面に入射する。
The detector 40 detects the affected light L2 from the position irradiated with the excitation light L10. The detector 40 includes, for example, an optical filter 42 into which the affected light L2 (see FIG. 3) from the irradiated position of the excitation light L10 is incident, and a sensor 41 that detects the affected light L2 emitted from the optical filter 42. Equipped with. The sensor 41 is controlled by a detection control section 85. The optical filter 42 is arranged to face the detection surface of the affected light L2 in the sensor 41 and to be located between the main surface 21a of the support plate 21 and the detection surface. That is, the optical filter 42 is arranged between the position to be irradiated with the excitation light L10 and the detection surface. The affected light L2 from the irradiated position of the excitation light L10 first enters the optical filter 42, and the filtered affected light L2 exits the optical filter 42 and enters the detection surface of the sensor 41.
放射線像形成層11のうち、放射線が照射されて放射線のエネルギーが蓄積されている領域は、励起光L10によって励起される。したがって、放射線像形成層11のうち、放射線のエネルギーが蓄積されていて、励起光L10の被照射範囲にある領域は、励起光L10によって励起される被励起領域であるといえる。被励起領域には放射線像が潜像として記録されていることから、被励起領域は、放射線像領域、潜像領域、あるいは像記録領域であるともいえる。
A region of the radiation image forming layer 11 that is irradiated with radiation and in which radiation energy is accumulated is excited by the excitation light L10. Therefore, it can be said that a region of the radiation image forming layer 11 in which radiation energy is accumulated and is within the irradiation range of the excitation light L10 is an excited region excited by the excitation light L10. Since the radiation image is recorded as a latent image in the excited region, it can be said that the excited region is a radiation image region, a latent image region, or an image recording region.
図7は図3での光検出器40の周辺を拡大して示す概略図である。放射線像形成層11の被励起領域に励起光L10が照射されると、被励起領域に蓄積されたエネルギーの分布に応じて被励起領域が発光し、被励起領域から輝尽光L5が発せられる。輝尽光L5は例えば青色の可視光である。また、放射線像形成層11の被励起領域に励起光L10が照射されると、被励起領域での励起光L10の反射光(以後、反射光L4ともいう)が発生する。反射光L4は被励起領域反射光L4と呼ばれてもよい。被作用光L2の一例である後述の発光光L2は反射によらずにイメージングプレート10が発光起点となる光と考えてよい。輝尽光L5は発光光L2の具体例である。
FIG. 7 is a schematic diagram showing the vicinity of the photodetector 40 in FIG. 3 in an enlarged manner. When the excited region of the radiation image forming layer 11 is irradiated with the excitation light L10, the excited region emits light according to the distribution of energy accumulated in the excited region, and the excited region emits photostimulated light L5. . The photostimulated light L5 is, for example, blue visible light. Further, when the excited region of the radiation image forming layer 11 is irradiated with the excitation light L10, reflected light (hereinafter also referred to as reflected light L4) of the excitation light L10 on the excited region is generated. The reflected light L4 may be called excited region reflected light L4. Emitted light L2, which will be described later as an example of the affected light L2, may be considered to be light whose emission origin is not caused by reflection but from the imaging plate 10. Stimulated light L5 is a specific example of luminescent light L2.
被励起領域からの光(以後、被励起領域光L20ともいう)には、被励起領域が発する輝尽光L5と、被励起領域からの反射光L4とが含まれる。被励起領域光L20は、放射線像領域光、潜像領域光、あるいは像記録領域光ともいえる。被励起領域光L20は輝尽光L5を少なくとも含んだ光である。励起光L10の被照射範囲にある潜像領域であって、励起光L10が照射されると励起される領域、具体的には励起されて輝尽光L5が発せられる領域を被励起領域としたとき、被励起領域光L20は、被励起領域からの、少なくとも輝尽光L5を含んだ光である。上記の例では、被励起領域光L20は輝尽光L5と反射光L4を含む光であるが、後述するように、被励起領域光L20が輝尽光L5のみからなる場合もありうる。
The light from the excited region (hereinafter also referred to as excited region light L20) includes stimulated light L5 emitted from the excited region and reflected light L4 from the excited region. The excited area light L20 can also be called radiation image area light, latent image area light, or image recording area light. The excited region light L20 is light containing at least the stimulated light L5. The latent image region in the irradiation range of the excitation light L10, which is excited when the excitation light L10 is irradiated, specifically, the region that is excited and emits the photostimulated light L5, is defined as the excited region. At this time, the excited region light L20 is light containing at least the stimulated light L5 from the excited region. In the above example, the excited region light L20 is light containing the stimulated light L5 and the reflected light L4, but as described later, the excited region light L20 may consist only of the stimulated light L5.
光学フィルタ42に入射される被作用光L2には被励起領域光L20が含まれる。被励起領域光L20は、光学フィルタ42でフィルタ処理された後、センサ41に入射する。本例では、光学フィルタ42の輝尽光L5に対する透過率(輝尽光透過率ともいう)は非常に高くなっている。したがって、光学フィルタ42は、イメージングプレート10の被励起領域からの輝尽光L5を十分に透過させてセンサ41に出射する。一方で、光学フィルタ42の励起光L10に対する透過率(励起光透過率ともいう)は、輝尽光透過率よりも低くなっている。例えば、励起光透過率が輝尽光透過率の10%程度の光学フィルタ42が使用されてもよい。光学フィルタ42は、センサ41に向かう、イメージングプレート10の被励起領域での励起光L10の反射光L4を減衰させる。光学フィルタ42は、励起光L10を減衰させるものの、励起光L10をある程度は透過させる。したがって、本例では、センサ41は、輝尽光L5を検出するだけではなく、被励起領域での励起光L10の反射光L4もある程度検出する。よって、光学フィルタ42から出射される被励起領域光L20には、輝尽光L5及び反射光L4が含まれる。
The excited light L2 incident on the optical filter 42 includes the excited region light L20. The excited region light L20 is filtered by the optical filter 42 and then enters the sensor 41. In this example, the transmittance of the optical filter 42 to the stimulated light L5 (also referred to as the stimulated light transmittance) is extremely high. Therefore, the optical filter 42 sufficiently transmits the stimulated light L5 from the excited region of the imaging plate 10 and emits it to the sensor 41. On the other hand, the transmittance of the optical filter 42 for the excitation light L10 (also referred to as excitation light transmittance) is lower than the stimulated light transmittance. For example, an optical filter 42 whose excitation light transmittance is about 10% of the stimulated light transmittance may be used. The optical filter 42 attenuates the reflected light L4 of the excitation light L10 from the excited region of the imaging plate 10 toward the sensor 41. Although the optical filter 42 attenuates the excitation light L10, it transmits the excitation light L10 to some extent. Therefore, in this example, the sensor 41 not only detects the stimulated light L5, but also detects a certain amount of reflected light L4 of the excitation light L10 in the excited region. Therefore, the excited region light L20 emitted from the optical filter 42 includes the stimulated light L5 and the reflected light L4.
センサ41は、光学フィルタ42を透過した被励起領域光L20を検出し、検出した被励起領域光L20の強度に応じた電気信号を出力することが可能である。センサ41は、例えば、複数のフォトダイオードで構成されてもよいし、光電子増倍管で構成されてもよい。本例では、センサ41が検出する被作用光L2(言い換えれば、検出器40が検出する被作用光L2)には、例えば、輝尽光L5及び反射光L4が含まれる。
The sensor 41 can detect the excited region light L20 that has passed through the optical filter 42 and output an electrical signal according to the intensity of the detected excited region light L20. The sensor 41 may be composed of, for example, a plurality of photodiodes or a photomultiplier tube. In this example, the affected light L2 detected by the sensor 41 (in other words, the affected light L2 detected by the detector 40) includes, for example, stimulated light L5 and reflected light L4.
読取装置1において、イメージングプレート10から放射線像が読み取られる処理(読取処理ともいう)が行われる場合、イメージングプレート10を保持した保持部20は、駆動部50によって読取開始位置に搬送される。そして、光測定器90は読取処理を開始する。読取処理では、光源30が、発光制御部86による制御によって、励起光L10をイメージングプレート10上で主走査方向DRmに走査する処理(主走査方向スキャンともいう)を繰り返し実行する。一方で、読取処理において、駆動部50は、イメージングプレート10を保持した保持部20を、所定方向DR10に沿った一方向DRs(副走査方向DRsともいう)に移動させる。副走査方向DRsは主走査方向DRmに垂直な方向である。保持部20が副走査方向DRsに移動している間に、主走査方向スキャンが繰り返し実行されることにより、イメージングプレート10の放射線像形成層11に対して励起光L10が2次元の広がりをもって照射され、放射線像形成層11がラスタスキャンされる。これにより、読取処理では、放射線像形成層11の全領域にわたって励起光L10が順次照射されて、放射線像形成層11の全領域が励起光L10で走査される。放射線像形成層11に対して励起光L10によるラスタスキャンが行われる間、検出器40のセンサ41が、ラスタスキャンに応じて放射線像形成層11から順次到来する被励起領域光L20(つまり、輝尽光L5を含む光)を検出することによって、放射線像形成層11から放射線像が読み取られる。センサ41は、励起光L10のラスタスキャン中の被励起領域光L20の検出結果として、読み取られた放射線像(言い換えれば、検出された放射線像)を表す画像信号を検出制御部85に出力する。この画像信号には、読み取られた放射線像を表す複数の画素の輝度値(言い換えれば画素値)が含まれる。センサ41は、例えば、グレースケールの画像信号を出力する。以後、検出器40で読み取られた放射線像を検出放射線像と呼ぶことがある。
When the reading device 1 performs a process of reading a radiation image from the imaging plate 10 (also referred to as a reading process), the holding unit 20 holding the imaging plate 10 is transported to a reading start position by the driving unit 50. The optical measuring device 90 then starts the reading process. In the reading process, the light source 30 repeatedly performs a process of scanning the excitation light L10 in the main scanning direction DRm on the imaging plate 10 (also referred to as main scanning direction scanning) under the control of the light emission control unit 86. On the other hand, in the reading process, the drive unit 50 moves the holding unit 20 holding the imaging plate 10 in one direction DRs (also referred to as sub-scanning direction DRs) along the predetermined direction DR10. The sub-scanning direction DRs is a direction perpendicular to the main scanning direction DRm. While the holding unit 20 is moving in the sub-scanning direction DRs, scanning in the main scanning direction is repeatedly executed, so that the excitation light L10 is irradiated with a two-dimensional spread onto the radiation image forming layer 11 of the imaging plate 10. The radiation image forming layer 11 is then raster scanned. Thereby, in the reading process, the entire area of the radiation image forming layer 11 is sequentially irradiated with the excitation light L10, and the entire area of the radiation image forming layer 11 is scanned with the excitation light L10. While the radiation image forming layer 11 is raster scanned by the excitation light L10, the sensor 41 of the detector 40 detects the excited area light L20 (that is, the brightness) that sequentially arrives from the radiation image forming layer 11 in accordance with the raster scan. A radiation image is read from the radiation image forming layer 11 by detecting the light (including the exhaust light L5). The sensor 41 outputs an image signal representing a read radiation image (in other words, a detected radiation image) to the detection control unit 85 as a detection result of the excited region light L20 during raster scanning of the excitation light L10. This image signal includes brightness values (in other words, pixel values) of a plurality of pixels representing the read radiation image. The sensor 41 outputs, for example, a grayscale image signal. Hereinafter, the radiation image read by the detector 40 may be referred to as a detected radiation image.
励起光L10の走査は、イメージングプレート10の検出対象範囲の全域を、座標を定めて2次元に行うものであればよく、主走査方向DRmと副走査方向DRsとが互いに垂直をなさなくてもよい。例えば、主走査方向DRmと副走査方向DRsとが、垂直以外の角度で交差するようにしてもよい。また、主走査方向DRm及び副走査方向DRsの一方または双方が曲線状の方向に設定されてもよい。
The scanning of the excitation light L10 may be performed two-dimensionally over the entire detection target range of the imaging plate 10 by determining the coordinates, and the main scanning direction DRm and the sub-scanning direction DRs may not be perpendicular to each other. good. For example, the main scanning direction DRm and the sub-scanning direction DRs may intersect at an angle other than perpendicular. Further, one or both of the main scanning direction DRm and the sub-scanning direction DRs may be set in a curved direction.
本例では、イメージングプレート10が保持部20で適切に保持されている状態では、図2及び4に示されるように、イメージングプレート10の短手方向が主走査方向DRmと平行を成し、イメージングプレート10の長手方向が副走査方向DRsと平行を成す。ここで、イメージングプレート10が保持部20で適切に保持されている状態でのイメージングプレートの姿勢を基準姿勢と呼ぶ、本例では、基準姿勢は、イメージングプレート10の短手方向が主走査方向DRmと平行を成し、イメージングプレート10の長手方向が副走査方向DRsと平行を成すようなイメージングプレート10の姿勢である。なお、基準姿勢はこの限りではない。
In this example, when the imaging plate 10 is properly held by the holding unit 20, the short direction of the imaging plate 10 is parallel to the main scanning direction DRm, as shown in FIGS. The longitudinal direction of the plate 10 is parallel to the sub-scanning direction DRs. Here, the posture of the imaging plate in a state where the imaging plate 10 is appropriately held by the holding unit 20 is called a reference posture. In this example, the reference posture is such that the width direction of the imaging plate 10 is the main scanning direction DRm. The posture of the imaging plate 10 is such that the longitudinal direction of the imaging plate 10 is parallel to the sub-scanning direction DRs. Note that the reference posture is not limited to this.
イメージングプレート10は、基本的には、基準姿勢で保持部20に保持される。ただし、固定部22の不具合等により保持部20が適切にイメージングプレート10を保持していない場合、イメージングプレート10は基準姿勢から傾いた状態で保持部20で保持されることもある。
The imaging plate 10 is basically held in the holding part 20 in a reference position. However, if the holding part 20 does not hold the imaging plate 10 properly due to a malfunction of the fixing part 22, the imaging plate 10 may be held in the holding part 20 in a tilted state from the reference position.
本例では、センサ41は、例えば、検出した光の強度が大きいほど、値の大きい輝度値を出力する。イメージングプレート10の放射線像形成層11では、放射線の照射強度が大きく蓄積エネルギーが大きい部分ほど、当該部分からの輝尽光L5の強度は大きい。一方で、被励起領域からの反射光L4の強度は、励起光L10の強度が一定であれば、蓄積エネルギーにかかわらずほぼ一定である。したがって、放射線像形成層11の被励起領域において蓄積エネルギーが大きい部分からの被励起領域光L20の検出に基づく像についてセンサ41が出力する輝度値は大きくなる。
In this example, the sensor 41 outputs a brightness value that increases as the intensity of the detected light increases, for example. In the radiation image forming layer 11 of the imaging plate 10, the greater the radiation irradiation intensity and the greater the stored energy, the greater the intensity of the stimulated light L5 from the region. On the other hand, the intensity of the reflected light L4 from the excited region is approximately constant regardless of the accumulated energy if the intensity of the excitation light L10 is constant. Therefore, the brightness value output by the sensor 41 for the image based on the detection of the excited region light L20 from the excited region of the radiation image forming layer 11 where the stored energy is large becomes large.
例えば、放射線像形成層11に歯の放射線像が記録される場合を考える。この場合、放射線像形成層11の被励起領域において歯の放射線像が記録されている部分、つまり、歯を透過した放射線が照射された部分からの被励起領域光L20の強度は比較的小さい。よって、検出放射線像のうち歯が写る部分についてのセンサ41からの輝度値は比較的小さい。一方で、放射線像形成層11の被励起領域において放射線が直接照射された部分(直接照射部分ともいう)からの被励起領域光L20の強度は比較的大きい。よって、検出放射線像のうち、放射線像形成層11の直接照射部分に相当する像についてセンサ41から出力される輝度値は比較的大きい。
For example, consider a case where a radiographic image of a tooth is recorded on the radiographic image forming layer 11. In this case, the intensity of the excited region light L20 from the portion of the excited region of the radiation image forming layer 11 where the radiation image of the tooth is recorded, that is, the portion irradiated with the radiation that has passed through the tooth, is relatively low. Therefore, the brightness value from the sensor 41 for the portion of the detected radiation image in which the teeth appear is relatively small. On the other hand, the intensity of excited region light L20 from a portion directly irradiated with radiation (also referred to as a directly irradiated portion) in the excited region of the radiation image forming layer 11 is relatively high. Therefore, among the detected radiation images, the luminance value output from the sensor 41 for the image corresponding to the directly irradiated portion of the radiation image forming layer 11 is relatively large.
上述のように、本例では、センサ41は、イメージングプレート10の被励起領域が発する輝尽光L5だけではなく、イメージングプレート10の被励起領域からの反射光L4もある程度検出する。よって、センサ41から出力される検出放射線像の輝度値には、検出された輝尽光L5の強度に応じた輝度値(輝尽光対応輝度値ともいう)と、検出された反射光L4に応じた輝度値(反射光対応輝度値ともいう)とが含まれる。
As described above, in this example, the sensor 41 detects not only the stimulated light L5 emitted by the excited region of the imaging plate 10, but also the reflected light L4 from the excited region of the imaging plate 10 to some extent. Therefore, the brightness value of the detected radiation image output from the sensor 41 includes a brightness value corresponding to the intensity of the detected photostimulated light L5 (also referred to as a brightness value corresponding to the stimulated light) and a brightness value corresponding to the detected reflected light L4. A corresponding brightness value (also referred to as a reflected light corresponding brightness value) is included.
輝尽光対応輝度値は、例えば、標準の線量条件及び距離(SID:Source Image Distance)条件において、反射光対応輝度値の10倍以上の値となっている。よって、検出器40から出力される画像信号に基づく検出放射線像は、反射光L4の影響をあまり受けておらず、イメージングプレート10に記録されている放射線像の読み取り及びその後の処理に反射光L4が支障をきたす可能性は小さい。センサ41が検出する被励起領域光L20では、反射光L4よりも輝尽光L5の方が輝度の強度割合が高いため、反射光L4の影響は小さい。そのため、検出器40は、検出した被励起領域光L20の強度に応じた電気信号を出力することにより、輝尽光L5の強度に応じた電気信号を出力していることにもなる。
The brightness value corresponding to stimulated light is, for example, 10 times or more the brightness value corresponding to reflected light under standard dose conditions and distance (SID: Source Image Distance) conditions. Therefore, the detected radiation image based on the image signal output from the detector 40 is not affected much by the reflected light L4, and the reflected light L4 is used for reading and subsequent processing of the radiation image recorded on the imaging plate 10. There is a small possibility that this will cause any problems. In the excited region light L20 detected by the sensor 41, the intensity ratio of the stimulated light L5 is higher than that of the reflected light L4, so the influence of the reflected light L4 is small. Therefore, by outputting an electric signal according to the intensity of the detected excited region light L20, the detector 40 also outputs an electric signal according to the intensity of the stimulated light L5.
また、本例では、イメージングプレート10の放射線像形成層11においては、部分的に、放射線の照射に応じたエネルギーが蓄積されていない未露光部分が存在することがある。例えば、イメージングプレート10に対して撮影対象物越しに放射線が照射される場合、放射線を発する光源の位置ずれ等によって、放射線像形成層11において、本来は放射線が照射されるべき部分に対して放射線が照射されずに、未露光部分が発生することがある。この未露光部分はコーンカットと呼ばれることがある。本例では、イメージングプレート10は、口中に入れられて放射線を受ける。そのため、イメージングプレート10の全部または一部が口中に隠れることから、放射線を発する光源を操作者が適切に位置付けたつもりであっても、放射線の照射範囲がイメージングプレート10の全部または一部から外れてしまうことがある。このような場合にはコーンカットが生じる。また、放射線像形成層11において、放射線が照射された部分から意図せずに放射線像が消えてしまい、未露光部分が部分的に発生することがある。例えば、放射線像を記録するイメージングプレート10は、通常、周囲の光が照射されないように、カバーで覆われた上で保管される。しかしながら、イメージングプレート10が適切にカバーで覆われていない場合には、イメージングプレート10の保管中に周囲の光が放射線像形成層11の一部に照射され、当該一部に記録されていた放射線像が意図せずに消去されることがある。この場合にも、放射線像形成層11は、部分的に未露光部分(ここでは、いったん露光したが消去により未露光状態にもどった部分)を有することになる。
Further, in this example, in the radiation image forming layer 11 of the imaging plate 10, there may be a partially unexposed portion in which energy corresponding to radiation irradiation is not accumulated. For example, when the imaging plate 10 is irradiated with radiation through the object to be imaged, due to positional shift of the light source that emits radiation, etc., the radiation is applied to the portion of the radiation image forming layer 11 that should originally be irradiated with the radiation. Unexposed areas may occur without being irradiated. This unexposed area is sometimes called a cone cut. In this example, the imaging plate 10 is placed in the mouth and receives radiation. Therefore, all or part of the imaging plate 10 is hidden in the mouth, so even if the operator intends to properly position the light source that emits radiation, the irradiation range of the radiation may deviate from all or part of the imaging plate 10. Sometimes it happens. In such cases, cone cuts occur. Furthermore, in the radiation image forming layer 11, the radiation image may unintentionally disappear from the portion irradiated with radiation, resulting in partial unexposed portions. For example, the imaging plate 10 that records radiation images is usually stored covered with a cover so that it is not exposed to ambient light. However, if the imaging plate 10 is not properly covered with a cover, ambient light may illuminate a portion of the radiation image forming layer 11 during storage of the imaging plate 10, and the radiation recorded on the portion may be removed. Images may be unintentionally erased. In this case as well, the radiation image forming layer 11 has a partially unexposed portion (here, a portion that was once exposed but returned to the unexposed state by erasing).
イメージングプレート10の未露光部分には放射線のエネルギーが蓄積されていないことから、未露光部分に励起光L10が照射されたとしても未露光部分は励起されない。したがって、未露光部分は、被励起領域ではない領域、つまり非被励起領域であるといえる。イメージングプレート10の未露光部分(言い換えれば非被励起領域)に励起光L10が照射されたとしても、未露光部分からは輝尽光L5は発せられない。したがって、励起光L10が未露光部分に照射された場合には、図8に示されるように、検出器40は、輝尽光L5を検出せずに、未露光部分での励起光L10の反射光を検出する。よって、検出器40が出力する画像信号には、未露光部分の像、つまり、未露光部分からの励起光L1の反射光の検出に基づく像を表す複数の画素の輝度値が含まれることがある。以後、未露光領域のように、イメージングプレート10において放射線のエネルギーが蓄積されていない領域からの励起光L10の反射光を反射光L40と呼ぶ。
Since radiation energy is not accumulated in the unexposed portion of the imaging plate 10, even if the unexposed portion is irradiated with the excitation light L10, the unexposed portion is not excited. Therefore, the unexposed portion can be said to be a region that is not an excited region, that is, a non-excited region. Even if the excitation light L10 is irradiated onto the unexposed portion (in other words, the non-excited region) of the imaging plate 10, the stimulated light L5 is not emitted from the unexposed portion. Therefore, when the excitation light L10 is irradiated onto the unexposed part, as shown in FIG. Detect light. Therefore, the image signal output by the detector 40 may include the brightness values of a plurality of pixels representing an image of the unexposed portion, that is, an image based on the detection of the reflected light of the excitation light L1 from the unexposed portion. be. Hereinafter, the reflected light of the excitation light L10 from a region of the imaging plate 10 in which no radiation energy is accumulated, such as an unexposed region, will be referred to as reflected light L40.
未露光部分からの反射光L40は、光学フィルタ42を通ってセンサ41に入射される。検出器40が被励起領域光L20及び反射光L40の検出結果として出力する画像信号に基づく全体の像には、被励起領域光L20の検出に基づく検出放射線像だけではなく、未露光部分の像(未露光領域像ともいう)も含まれることがある。検出器40が出力する検出放射線像の輝度値は、例えば、標準の線量条件・距離(SID)条件において、検出器40が出力する未露光領域像の輝度値の10倍以上となっている。未露光部分、つまり非被励起領域からの反射光L40は、非被励起領域光ともいえる。また、反射光L40は非被励起領域反射光L40と呼ばれてもよい。検出器40が検出する被作用光L2には反射光L40も含まれる。
Reflected light L40 from the unexposed portion passes through the optical filter 42 and enters the sensor 41. The entire image based on the image signal output by the detector 40 as a result of detection of the excited region light L20 and the reflected light L40 includes not only a detected radiation image based on the detection of the excited region light L20 but also an image of an unexposed portion. (also referred to as an unexposed area image) may also be included. The brightness value of the detected radiation image output by the detector 40 is, for example, 10 times or more the brightness value of the unexposed area image output by the detector 40 under standard dose and distance (SID) conditions. The reflected light L40 from the unexposed portion, that is, the non-excited region, can also be called non-excited region light. Further, the reflected light L40 may be called non-excited region reflected light L40. The reflected light L40 is also included in the affected light L2 detected by the detector 40.
なお、イメージングプレート10に放射線像が全く記録されていない場合、センサ41は、被励起領域光L20を検出せずに、励起光L10の被照射位置からの反射光L40を検出する。非被励起領域からの反射光L40及び被励起領域からの反射光L4のように、イメージングプレート10での励起光L10の反射光を、輝尽光L5と対比させて、非輝尽性反射光と表現する場合がある。また、励起光L10がイメージングプレート10で反射するか、イメージングプレート10外で反射するかにかかわらず、励起光L10の反射光を単に反射光と呼ぶことがある。
When no radiation image is recorded on the imaging plate 10, the sensor 41 does not detect the excited area light L20, but detects the reflected light L40 from the position irradiated by the excitation light L10. The reflected light of the excitation light L10 on the imaging plate 10, such as the reflected light L40 from the non-excited area and the reflected light L4 from the excited area, may be expressed as non-stimulated reflected light in contrast to the stimulated light L5. Furthermore, regardless of whether the excitation light L10 is reflected on the imaging plate 10 or outside the imaging plate 10, the reflected light of the excitation light L10 may be simply referred to as reflected light.
本開示では、イメージングプレート10からの光の名称あるいはイメージングプレート10に照射される光の名称に、イメージングプレート10を表すIPを付してもよい。例えば、被励起領域光L20をIP被励起領域光L20と呼んでもよい。また、非被励起領域光をIP非被励起領域光と呼んでもよい。また、輝尽光L5をIP輝尽光L5と呼んでもよい。また、反射光L4をIP反射光L4(IP被励起領域反射光L4ともいう)と呼んでもよいし、反射光L40をIP反射光L40(IP非被励起領域反射光L40ともいう)と呼んでもよい。また、非輝尽性反射光をIP非輝尽性反射光と呼んでもよい。また、作用光L1をIP作用光L1と呼んでもよいし、被作用光L2をIP被作用光L2と呼んでよい。また、IP被作用光L2のことを、単にIP光L2と呼んでもよい。また、励起光L10をIP励起光L10と呼んでもよい。以後、反射光L4及びL40を特に区別する必要がない場合には、それぞれをまたは両者の複合をIP反射光と呼ぶ。
In the present disclosure, IP representing the imaging plate 10 may be added to the name of the light from the imaging plate 10 or the name of the light irradiated to the imaging plate 10. For example, the excited region light L20 may be called IP excited region light L20. Further, the non-excited region light may be referred to as IP non-excited region light. Further, the photostimulated light L5 may be referred to as the IP photostimulated light L5. Further, the reflected light L4 may be referred to as IP reflected light L4 (also referred to as IP excited region reflected light L4), and the reflected light L40 may be referred to as IP reflected light L40 (IP non-excited region reflected light L40). good. Further, the non-stimulable reflected light may also be referred to as IP non-stimulable reflected light. Furthermore, the acting light L1 may be referred to as IP acting light L1, and the acting light L2 may be referred to as IP acting light L2. Further, the IP-affected light L2 may be simply referred to as IP light L2. Further, the excitation light L10 may be referred to as IP excitation light L10. Hereinafter, if there is no need to particularly distinguish between the reflected lights L4 and L40, each of them or a combination of both will be referred to as IP reflected light.
励起光L10は輝尽光L5を発生させる成分を有する。また、励起光L10は、IP反射光を発生させる成分を有する。光源30は、輝尽光L5を発生させる成分を有する光の源としての輝尽光発生光源でもある。また、光源30は、IP反射光を発生させる成分を有する光の源としての反射光発生光源でもある。例えば、輝尽光発生光源としての光源30は第1光源であり、反射光発生光源としての光源30は第2光源である。輝尽光発生光源と反射光発生光源は、同体である必要はなく、別々に設けるようにしてもよい。反射光発生光源は、励起光L10に限らず、対象物から反射光を発生させる光を照射できるものであればよい。
The excitation light L10 has a component that generates photostimulated light L5. Moreover, the excitation light L10 has a component that generates IP reflected light. The light source 30 is also a photostimulant-generating light source that is a source of light having a component that generates photostimulant L5. Further, the light source 30 is also a reflected light generating light source that is a source of light having a component that generates IP reflected light. For example, the light source 30 as a stimulated light generating light source is a first light source, and the light source 30 as a reflected light generating light source is a second light source. The stimulated light generating light source and the reflected light generating light source do not need to be the same unit, and may be provided separately. The reflected light generating light source is not limited to the excitation light L10, and may be any light source that can emit light that causes reflected light to be generated from the object.
センサ41は、輝尽光L5を検出する輝尽光検出器であり、IP反射光を検出する反射光検出器でもある。例えば、輝尽光を検出する輝尽光検出器としてのセンサ41は第1検出器であり、反射光を検出する反射光検出器としてのセンサ41は第2検出器である。センサ41は被励起領域光L20を検出する検出器である。被励起領域光L20は輝尽光L5を少なくとも含んだ光であるので、被励起領域光L20を検出することにより、輝尽光L5を少なくとも検出する。その意味でセンサ41は輝尽光検出器である。第1検出器たるセンサ41を被励起領域光検出器と考えてもよい。被励起領域光はIP被作用光なので、第1検出器を、IP被励起領域光L20を検出するIP被励起領域光検出器と考えてもよい。第2検出器を、非被励起領域光を検出する非被励起領域光検出器と考えてもよい。第2検出器が、非被励起領域光がIP被作用光である場合、第2検出器を、IP非被励起領域光を検出するIP非被励起領域光検出器と考えてもよい。輝尽光検出器と反射光検出器は、同体である必要はなく、別々に設けるようにしてもよい。
The sensor 41 is a photostimulated photodetector that detects photostimulated light L5, and is also a reflected light detector that detects IP reflected light. For example, the sensor 41 as a photostimulated photodetector that detects photostimulated light is a first detector, and the sensor 41 as a reflected light detector that detects reflected light is a second detector. The sensor 41 is a detector that detects the excited region light L20. Since the excited region light L20 is light containing at least the photostimulated light L5, by detecting the excited region light L20, at least the stimulated light L5 is detected. In this sense, the sensor 41 is a photostimulable photodetector. The sensor 41, which is the first detector, may be considered as an excited region photodetector. Since the excited region light is IP excited light, the first detector may be considered as an IP excited region photodetector that detects the IP excited region light L20. The second detector may be considered a non-excited region photodetector that detects non-excited region light. When the non-excited region light of the second detector is IP affected light, the second detector may be considered as an IP non-excited region photodetector that detects the IP non-excited region light. The stimulated photodetector and the reflected photodetector do not need to be the same unit, and may be provided separately.
また、本開示では、ある光が形成する像、つまりある光の検出に基づく像を、当該ある光の名称を付した像の名称で呼んでもよい。例えば、被励起領域光L20が形成する像、つまり被励起領域光L20の検出に基づく像を、被励起領域光像と呼んでもよい。検出器40で得られる上述の検出放射線像は被励起領域光像である。また、反射光が形成する像、つまり当該反射光の検出に基づく像を、反射光像と呼んでもよい。未露光部分からの反射光L40が形成する反射光像は、検出器40で得られる上述の未露光領域像である。非輝尽性反射光が形成する像を非輝尽性反射光像と呼んでもよいし、被作用光L2が形成する像を被作用光像と呼んでもよい。したがって、輝尽光像、反射光像、被励起領域反射光像、非被励起領域光像、非被励起領域反射光像などもありうる。
Furthermore, in the present disclosure, an image formed by a certain light, that is, an image based on detection of a certain light, may be referred to by an image name given the name of the certain light. For example, the image formed by the excited region light L20, that is, the image based on the detection of the excited region light L20, may be called an excited region light image. The above-mentioned detected radiation image obtained by the detector 40 is an excited region optical image. Further, an image formed by reflected light, that is, an image based on detection of the reflected light may be referred to as a reflected light image. The reflected light image formed by the reflected light L40 from the unexposed area is the above-mentioned unexposed area image obtained by the detector 40. The image formed by the non-stimulable reflected light may be called a non-stimulable reflected light image, and the image formed by the actuated light L2 may be called an actuated light image. Therefore, there may be photostimulated light images, reflected light images, excited region reflected light images, non-excited region light images, non-excited region reflected light images, etc.
また、本開示では、イメージングプレート10に関する像の名称に、イメージングプレート10を表すIPを付してもよい。例えば、被励起領域光像をIP被励起領域光像と呼んでもよいし、IP反射光が形成する像(言い換えれば、IP反射光の検出に基づく像あるいはIP反射光の検出により得られる像)をIP反射光像と呼んでもよいし、非輝尽性反射光像をIP非輝尽性反射光像と呼んでもよいし、被作用光像をIP被作用光像と呼んでもよい。同様に、IP輝尽光像、IP被励起領域反射光像、IP非被励起領域光像、IP非被励起領域反射光像などもありうる。また、IP被作用光像を単にIP像と呼んでもよい。また、IP被作用光像に加工を加えたものもIP被作用光像(言い換えればIP像)と呼んでよい。
Further, in the present disclosure, IP representing the imaging plate 10 may be added to the name of the image related to the imaging plate 10. For example, the excited area optical image may be called an IP excited area optical image, or an image formed by IP reflected light (in other words, an image based on detection of IP reflected light or an image obtained by detection of IP reflected light) may be called an IP reflected light image, a non-stimulable reflected light image may be called an IP non-stimulable reflected light image, and an affected light image may be called an IP affected light image. Similarly, there may be an IP photostimulated light image, an IP excited region reflected light image, an IP non-excited region light image, an IP non-excited region reflected light image, etc. Further, the IP-affected optical image may simply be called an IP image. Further, an image obtained by adding processing to an IP-effected optical image may also be called an IP-effected optical image (in other words, an IP image).
また、本開示では、ある光の検出結果として得る画像信号を当該ある光の名称を付した画像信号の名称で呼んでよい。例えば、被励起領域光L20の検出結果として得る画像信号を被励起領域光画像信号と呼んでもよい。また、反射光の検出結果として得る画像信号を反射光画像信号と呼んでもよい。また、非輝尽性反射光像の検出結果として得る画像信号を非輝尽性反射光画像信号と呼んでもよい。また、被作用光L2の検出結果として得る画像信号を被作用光画像信号と呼んでもよい。同様に、輝尽光画像信号、被励起領域反射光画像信号、非被励起領域光画像信号、非被励起領域反射光画像信号などもありうる。
Further, in the present disclosure, an image signal obtained as a result of detection of a certain light may be referred to as an image signal name given the name of the certain light. For example, the image signal obtained as a result of detection of the excited region light L20 may be called an excited region light image signal. Further, an image signal obtained as a result of detection of reflected light may be referred to as a reflected light image signal. Furthermore, an image signal obtained as a result of detection of a non-stimulable reflected light image may be referred to as a non-stimulable reflected light image signal. Further, the image signal obtained as a result of detection of the affected light L2 may be referred to as an affected light image signal. Similarly, there may be a photostimulated light image signal, an excited region reflected light image signal, a non-excited region light image signal, a non-excited region reflected light image signal, etc.
また、本開示では、イメージングプレート10に関する画像信号の名称に、イメージングプレート10を表すIPを付してもよい。例えば、被励起領域光画像信号をIP被励起領域光画像信号と読んでもよいし、反射光の検出結果として得る画像信号をIP反射光画像信号と呼んでもよいし、非輝尽性反射光画像信号をIP非輝尽性反射光画像信号と呼んでもよいし、被作用光画像信号をIP被作用光画像信号と呼んでもよい。また、IP被作用光画像信号を単にIP画像信号と呼んでもよい。同様に、IP輝尽光画像信号、IP被励起領域反射光画像信号、IP非被励起領域光画像信号、IP非被励起領域反射光画像信号などもありうる。
Further, in the present disclosure, IP representing the imaging plate 10 may be added to the name of the image signal regarding the imaging plate 10. For example, an excited region optical image signal may be read as an IP excited region optical image signal, an image signal obtained as a result of detection of reflected light may be called an IP reflected light image signal, or a non-stimulable reflected light image. The signal may be called an IP non-stimulable reflected light image signal, and the affected light image signal may be called an IP affected light image signal. Furthermore, the IP-applied optical image signal may simply be referred to as an IP image signal. Similarly, there may be an IP stimulated light image signal, an IP excited area reflected light image signal, an IP non-excited area optical image signal, an IP non-excited area reflected light image signal, etc.
なお、図9のように、光学フィルタ42が、反射光L4を完全に遮り、輝尽光L5のみ透過させるものであれば、センサ41が検出する被作用光L2、言い換えればセンサ41が検出する被励起領域光L20は、輝尽光L5となる。よって、センサ41から出力される被作用光L2(言い換えれば被励起領域光L20)の強度に応じた輝度値は、輝尽光L5の強度に応じた輝度値となる。図9の例では、検出器40が検出する輝尽光L5に基づく像を輝尽光像と呼んでもよいし、IP輝尽光像と呼んでもよい。また、検出器40が輝尽光L5の検出結果として出力する画像信号を、輝尽光画像信号と呼んでもよいし、IP輝尽光画像信号と呼んでもよい。
Note that, as shown in FIG. 9, if the optical filter 42 completely blocks the reflected light L4 and transmits only the stimulated light L5, the affected light L2 is detected by the sensor 41, in other words, the sensor 41 detects it. The excited region light L20 becomes stimulated light L5. Therefore, the brightness value according to the intensity of the stimulated light L2 (in other words, the excited region light L20) output from the sensor 41 becomes the brightness value according to the intensity of the stimulated light L5. In the example of FIG. 9, the image based on the photostimulated light L5 detected by the detector 40 may be called a photostimulated light image or an IP stimulated light image. Further, the image signal outputted by the detector 40 as the detection result of the photostimulant L5 may be referred to as a photostimulant image signal or an IP photostimulant image signal.
本例では、読取処理において、励起光L10は、イメージングプレート10だけではなく、保持部20のうちイメージングプレート10の外側の部分に対しても照射される。ここで、読取装置1において励起光L10が照射される対象物を照射対象物1200と呼ぶ。本例では、照射対象物1200は、保持部20と、保持部20に保持されたイメージングプレート10とで構成されている。また、照射対象物1200の支持面21a側の主面1200aを支持側主面1200aと呼ぶ。本例では、支持側主面1200aには、イメージングプレート10の放射線像形成層11の表面と、保持部20の固定部22の表面と、保持部20の支持板21の支持面21aのうちイメージングプレート10及び固定部22で覆われていない領域とが含まれる。また、支持側主面1200aにおいて、そこからの被作用光L2が形成する像がIP像である領域を、IP像領域R100と呼ぶ。IP像領域R100は、支持側主面1200aにおいてイメージングプレート10が存在するIP存在領域ともいえる。なお、照射対象物1200の支持側主面1200aとは反対側の主面は、支持板21の裏面21bと一致する。
In this example, in the reading process, the excitation light L10 is irradiated not only to the imaging plate 10 but also to a portion of the holding section 20 outside the imaging plate 10. Here, the object to which the excitation light L10 is irradiated in the reading device 1 is referred to as an irradiation object 1200. In this example, the irradiation target 1200 includes a holding section 20 and an imaging plate 10 held by the holding section 20. Further, the main surface 1200a of the irradiation target 1200 on the support surface 21a side is referred to as the support-side main surface 1200a. In this example, the supporting side main surface 1200a includes the surface of the radiation image forming layer 11 of the imaging plate 10, the surface of the fixing section 22 of the holding section 20, and the imaging surface of the supporting surface 21a of the supporting plate 21 of the holding section 20. The region not covered by the plate 10 and the fixing part 22 is included. Further, in the support-side main surface 1200a, an area where the image formed by the affected light L2 from there is an IP image is referred to as an IP image area R100. The IP image region R100 can also be said to be an IP presence region where the imaging plate 10 exists on the support side main surface 1200a. Note that the main surface of the irradiation target 1200 opposite to the support-side main surface 1200a coincides with the back surface 21b of the support plate 21.
IP像領域R100からの光をIP像領域光と呼んでよい。IP像領域光が形成する像をIP像領域光像と呼んでよい。IP像領域光の検出結果として出力する画像信号を、IP像領域光画像信号と呼んでもよい。IP像領域光は、被励起領域反射光L4のみからなる場合も、非被励起領域反射光L40のみからなる場合も、被励起領域反射光L4と非被励起領域反射光L40の双方からなる場合もありうる。
The light from the IP image area R100 may be referred to as IP image area light. The image formed by the IP image area light may be called an IP image area light image. The image signal output as the detection result of the IP image area light may be referred to as an IP image area light image signal. The IP image area light may consist of only the excited area reflected light L4, only the non-excited area reflected light L40, or both the excited area reflected light L4 and the non-excited area reflected light L40. It's also possible.
本例では、読取処理での支持側主面1200aに対する励起光L10の照射範囲(励起光照射範囲ともいう)R120は、IP像領域R100を含みつつ、それよりも大きい範囲となっている。励起光照射範囲R120は、読取処理での励起光L10の走査範囲ともいえる。また、読取処理における検出器40の支持側主面1200aでの検出範囲R110も、IP像領域R100を含みつつ、それよりも大きい範囲となっている。
In this example, an irradiation range R120 of the excitation light L10 (also referred to as an excitation light irradiation range) on the support-side main surface 1200a in the reading process includes the IP image region R100 but is larger than that. The excitation light irradiation range R120 can also be said to be the scanning range of the excitation light L10 in the reading process. In addition, the detection range R110 on the support-side main surface 1200a of the detector 40 during the reading process also includes the IP image region R100, but is larger than the IP image region R100.
図10は励起光照射範囲R120、検出範囲R110及びIP像領域R100の一例を示す概略図である。図10及び後述の図12及び13では、イメージングプレート10の記載は省略している。図10に示されるように、励起光照射範囲R120及び検出範囲R110のそれぞれは、IP像領域R100を含みつつ、IP像領域R100よりも大きい範囲となっている。そして、励起光照射範囲R120及び検出範囲R110は、例えば、互いに同じ大きさであり、かつ互いに同じ位置に存在する。なお、図10では、説明の便宜上、励起光照射範囲R120が検出範囲R110よりも若干大きく示されている。
FIG. 10 is a schematic diagram showing an example of the excitation light irradiation range R120, the detection range R110, and the IP image region R100. In FIG. 10 and FIGS. 12 and 13, which will be described later, illustration of the imaging plate 10 is omitted. As shown in FIG. 10, each of the excitation light irradiation range R120 and the detection range R110 includes the IP image area R100 and is larger than the IP image area R100. The excitation light irradiation range R120 and the detection range R110 have, for example, the same size and are located at the same position. In addition, in FIG. 10, for convenience of explanation, the excitation light irradiation range R120 is shown to be slightly larger than the detection range R110.
このように、励起光照射範囲R120と検出範囲R110とを一致した範囲としてよい。励起光照射範囲R120からの被作用光L2しか検出対象としない構成は、励起光照射範囲R120と検出範囲R110とを一致した範囲とさせる構成例である。
In this way, the excitation light irradiation range R120 and the detection range R110 may be set to be the same range. A configuration in which only the acted light L2 from the excitation light irradiation range R120 is the detection target is an example of a configuration in which the excitation light irradiation range R120 and the detection range R110 are set to be the same range.
読取処理では、光源30が主走査方向スキャンを繰り返し実行しつつ、イメージングプレート10を保持した保持部20が副走査方向DRsに移動することによって、励起光照射範囲R120に対して励起光L10によるラスタスキャンがなされる。そして、センサ41は、検出範囲R110での励起光L10の照射位置に応じた輝度値を、励起光L10のラスタスキャンに応じて順次出力する。
In the reading process, while the light source 30 repeatedly performs scanning in the main scanning direction, the holding unit 20 holding the imaging plate 10 moves in the sub-scanning direction DRs, so that the excitation light irradiation range R120 is scanned in a raster pattern by the excitation light L10. A scan is done. Then, the sensor 41 sequentially outputs brightness values according to the irradiation position of the excitation light L10 in the detection range R110 in accordance with the raster scan of the excitation light L10.
ここで、支持側主面1200aにおいて、IP像領域R100の外側であり、かつ励起光照射範囲R120及び検出範囲R110の内側の領域をIP外側領域R130と呼ぶ。本例では、励起光照射範囲R120及び検出範囲R110が、IP像領域R100を含みつつ、IP像領域R100よりも大きい範囲となっていることから、センサ41は、IP外側領域R130からの励起光L10の反射光L400を検出する。IP外側領域R130には、例えば、固定部22の表面の少なくとも一部と、支持板21の支持面21aのうちイメージングプレート10及び固定部22で覆われていない領域の少なくとも一部とが含まれる。IP外側領域R130は、保持部20の表面、具体的には保持部20のイメージングプレート10側の主面に含まれる。図11は、センサ41が反射光L400を検出する様子の一例を示す概略図である。センサ41が検出する被作用光L2には反射光L400も含まれる。
Here, in the support-side main surface 1200a, a region outside the IP image region R100 and inside the excitation light irradiation range R120 and the detection range R110 is referred to as an IP outer region R130. In this example, since the excitation light irradiation range R120 and the detection range R110 include the IP image region R100 and are larger than the IP image region R100, the sensor 41 receives the excitation light from the IP outer region R130. The reflected light L400 of L10 is detected. The IP outer region R130 includes, for example, at least a part of the surface of the fixing part 22 and at least a part of the area of the support surface 21a of the support plate 21 that is not covered by the imaging plate 10 and the fixing part 22. . The IP outer region R130 is included in the surface of the holding section 20, specifically, the main surface of the holding section 20 on the imaging plate 10 side. FIG. 11 is a schematic diagram showing an example of how the sensor 41 detects the reflected light L400. The reflected light L400 is also included in the affected light L2 detected by the sensor 41.
IP外側領域R130に励起光L10が照射されたとしても、IP外側領域R130からは輝尽光L5は発せられない。したがって、検出器40は、励起光L10がIP外側領域R130に照射された場合、輝尽光L5を検出せずに、IP外側領域R130からの励起光L10の反射光L400を検出する。よって、読取処理において、検出器40が輝尽光L5及び反射光の検出結果として出力する画像信号には、IP外側領域R130の反射光像、つまり、IP外側領域R130からの励起光L10の反射光L400の検出に基づく反射光像を表す複数の画素の輝度値が含まれる。本例では、検出器40が出力する画像信号に基づく全体の像(取得全体像ともいう)には、検出放射線像だけではなく、IP外側領域R130の反射光像も含まれる。イメージングプレート10に未露光部分が含まれる場合には、取得全体像には、検出放射線像、未露光領域像及びIP外側領域R130の反射光像が含まれる。以後、IP外側領域R130の反射光像をIP外側領域像と呼ぶことがある。
Even if the excitation light L10 is irradiated to the IP outer region R130, the stimulated light L5 is not emitted from the IP outer region R130. Therefore, when the excitation light L10 is irradiated onto the IP outer region R130, the detector 40 detects the reflected light L400 of the excitation light L10 from the IP outer region R130 without detecting the stimulated light L5. Therefore, in the reading process, the image signal output by the detector 40 as a detection result of the stimulated light L5 and the reflected light includes a reflected light image of the IP outer region R130, that is, the reflection of the excitation light L10 from the IP outer region R130. The luminance value of a plurality of pixels representing a reflected light image based on the detection of light L400 is included. In this example, the entire image based on the image signal output by the detector 40 (also referred to as the acquired overall image) includes not only the detected radiation image but also the reflected light image of the IP outer region R130. When the imaging plate 10 includes an unexposed portion, the acquired overall image includes a detected radiation image, an unexposed region image, and a reflected light image of the IP outer region R130. Hereinafter, the reflected light image of the IP outer region R130 may be referred to as an IP outer region image.
検出範囲R110において、IP像領域R100を除いた領域をIP像領域外領域と呼んでもよい。IP像領域外領域の像をIP像領域外領域像と呼んでもよい。検出範囲R110は、少なくともIP像領域R100を包含するように設定される。検出範囲R110が、IP像領域R100を含みつつ、IP像領域R100より広い範囲に設定される場合、検出範囲R110はIP像領域R100とIP像領域外領域とで構成される。IP像領域R100は、イメージングプレート10において励起光L1を受光する領域であることから、IP受光領域と呼び変えてもよい。検出範囲R110においてIP受光領域を除いた領域がIP像領域外領域であるので、IP像領域外領域をIP受光外領域と呼び変えてもよい。
In the detection range R110, an area other than the IP image area R100 may be referred to as an area outside the IP image area. The image of the area outside the IP image area may be referred to as an image of the area outside the IP image area. The detection range R110 is set to include at least the IP image region R100. When the detection range R110 is set to be wider than the IP image area R100 while including the IP image area R100, the detection range R110 is composed of the IP image area R100 and an area outside the IP image area. Since the IP image region R100 is a region of the imaging plate 10 that receives the excitation light L1, it may be called an IP light receiving region. Since the area excluding the IP light receiving area in the detection range R110 is the area outside the IP image area, the area outside the IP image area may be called the area outside the IP light receiving area.
本例では、IP外側領域R130に対して、励起光L10が反射しにくくなる処理が行われている。例えば、IP外側領域R130には黒アルマイト処理が行われている。これにより、検出器40は、イメージングプレート10の未露光部分での励起光L10の反射光L40よりも、IP外側領域R130での励起光L10の反射光L400の方が検出しにくくなっている。本例では、黒アルマイト処理により、IP外側領域R130では、ほとんど励起光L10が反射しなくなっている。検出器40が出力する未露光領域像の輝度値は、例えば、検出器40が出力するIP外側領域像の輝度値の3倍以上となっている。なお、黒アルマイト処理は、保持部20の表面のうち、IP外側領域R130以外の領域に対しても行われてもよい。例えば、黒アルマイト処理は、保持部20の表面の全領域に行われてもよい。また、例えば、保持部20の支持面21a及び固定部22のうち、検出範囲R110内の部分の、少なくとも励起光L1が照射される範囲には、励起光L10が反射しにくくなる処理が行われてもよい。保持部20の支持面21a及び固定部22のうち、検出範囲R110内の部分において、励起光L10が照射されない範囲があるときには、この範囲にも光が反射しにくくなる処理が行われてもよい。
In this example, processing is performed on the IP outer region R130 to make it difficult for the excitation light L10 to be reflected. For example, black alumite treatment is performed on the IP outer region R130. This makes it more difficult for the detector 40 to detect the reflected light L400 of the excitation light L10 at the IP outer region R130 than the reflected light L40 of the excitation light L10 at the unexposed portion of the imaging plate 10. In this example, due to the black alumite treatment, almost no excitation light L10 is reflected in the IP outer region R130. The brightness value of the unexposed area image output by the detector 40 is, for example, more than three times the brightness value of the IP outer area image output by the detector 40. Note that the black alumite treatment may also be performed on areas other than the IP outer area R130 on the surface of the holding part 20. For example, the black alumite treatment may be performed on the entire surface area of the holding part 20. Further, for example, a process is performed to make it difficult for the excitation light L10 to be reflected, at least in the area within the detection range R110 of the support surface 21a of the holding part 20 and the fixing part 22, which is irradiated with the excitation light L1. It's okay. If there is a range within the detection range R110 of the support surface 21a of the holding part 20 and the fixed part 22 that is not irradiated with the excitation light L10, processing may be performed to make it difficult for light to be reflected in this range as well. .
励起光照射範囲R120、検出範囲R110及びIP像領域R100の関係は上記の例に限られない。図12及び13は、励起光照射範囲R120、検出範囲R110及びIP像領域R100の他の一例を示す概略図である。図12の例では、励起光照射範囲R120は、検出範囲R110及びIP像領域R100を含みつつ、検出範囲R110及びIP像領域R100よりも大きくなっている。図12の例では、検出範囲R110内のIP像領域外領域は、励起光照射範囲R120に収まっている。検出範囲R110内であり、かつ励起光照射範囲R120内であり、かつIP像領域R100の外側の領域を、照射範囲内IP像領域外領域と呼んでよい。照射範囲内IP像領域外領域は上述のIP外側領域R130と一致する。図12の例では、IP像領域外領域は照射範囲内IP像領域外領域で構成されている。以後、IP外側領域R130を照射範囲内IP像領域外領域R130と呼ぶことがある。
The relationship among the excitation light irradiation range R120, the detection range R110, and the IP image region R100 is not limited to the above example. 12 and 13 are schematic diagrams showing other examples of the excitation light irradiation range R120, the detection range R110, and the IP image region R100. In the example of FIG. 12, the excitation light irradiation range R120 includes the detection range R110 and the IP image area R100, and is larger than the detection range R110 and the IP image area R100. In the example of FIG. 12, the area outside the IP image area within the detection range R110 falls within the excitation light irradiation range R120. An area within the detection range R110, within the excitation light irradiation range R120, and outside the IP image area R100 may be referred to as an area outside the IP image area within the irradiation range. The area outside the IP image area within the irradiation range coincides with the above-mentioned IP outside area R130. In the example of FIG. 12, the area outside the IP image area is comprised of the area outside the IP image area within the irradiation range. Hereinafter, the IP outer region R130 may be referred to as the IP image region outside region R130 within the irradiation range.
図13の例では、検出範囲R110は、励起光照射範囲R120及びIP像領域R100を含みつつ、励起光照射範囲R120及びIP像領域R100よりも大きくなっている。
In the example of FIG. 13, the detection range R110 includes the excitation light irradiation range R120 and the IP image region R100, and is larger than the excitation light irradiation range R120 and the IP image region R100.
図10,12,13の例のように、励起光照射範囲R120及び検出範囲R110は互いに一致してもよいし、励起光照射範囲R120及び検出範囲R110の一方が、励起光照射範囲R120及び検出範囲R110の他方より大きくてもよい。
As in the examples of FIGS. 10, 12, and 13, the excitation light irradiation range R120 and the detection range R110 may coincide with each other, or one of the excitation light irradiation range R120 and the detection range R110 may be the excitation light irradiation range R120 and the detection range R110. It may be larger than the other range R110.
図13の例では、検出範囲R110には、支持側主面1200aにおける、励起光照射範囲R120以外の領域(照射範囲外領域ともいう)が含まれている。また、図13の例では、検出範囲R110内のIP像領域外領域は、励起光照射範囲R120においてIP像領域R100を除く領域と、検出範囲R110において励起光照射範囲R120を除く領域とを含む。検出範囲R110において励起光照射範囲R120の外側の領域を、照射範囲外IP像領域外領域と呼んでもよい。図13の例では、検出範囲R110内のIP像領域外領域は、照射範囲内IP像領域外領域と照射範囲外IP像領域外領域とで構成されている。
In the example of FIG. 13, the detection range R110 includes a region other than the excitation light irradiation range R120 (also referred to as a region outside the irradiation range) on the support-side main surface 1200a. In the example of FIG. 13, the area outside the IP image area within the detection range R110 includes an area in the excitation light irradiation range R120 excluding the IP image area R100, and an area in the detection range R110 excluding the excitation light irradiation range R120. . The area outside the excitation light irradiation range R120 in the detection range R110 may be referred to as an area outside the irradiation range IP image area. In the example of FIG. 13, the area outside the IP image area within the detection range R110 is composed of an area outside the IP image area within the irradiation range and an area outside the IP image area outside the irradiation range.
支持側主面1200aのうち励起光照射範囲R120に対しては励起光L1が反射しにくくなる処理が行われてもよく、照射範囲外IP像領域外領域にも光が反射しにくくなる処理が行われてもよい。照射範囲外IP像領域外領域の光の状況を照射範囲外IP像領域外領域光状況と呼んでもよい。
Processing that makes it difficult for the excitation light L1 to be reflected may be performed on the excitation light irradiation range R120 of the support-side principal surface 1200a, and processing that makes it difficult for light to be reflected in areas outside the irradiation range and outside the IP image area may also be performed. May be done. The light situation in the area outside the IP image area outside the irradiation range may be referred to as the light situation in the area outside the IP image area outside the irradiation range.
読取処理では、照射範囲外IP像領域外領域についての照射範囲外検出処理が行われる。照射範囲外検出処理として、検出器40において、照射範囲外IP像領域外領域光状況の輝度検出が行われてもよい。照射範囲外IP像領域外領域光状況の輝度は低いことは既知であるため、効率化のために、例えば、照射範囲外IP像領域外領域光状況の輝度値を一括して所定の値に設定して、照射範囲外IP像領域外領域光状況の輝度を検出したものとしてもよい。所定の値は、IP像の輝度値より低い輝度値とする。検出器40が出力する画像信号には、照射範囲外IP像領域外領域光状況の輝度値も含まれる。
In the reading process, out-of-irradiation detection processing is performed for a region outside the IP image area outside the irradiation range. As the out-of-irradiation detection process, the detector 40 may detect the brightness of the light situation outside the IP image area outside the irradiation range. It is known that the brightness of the light situation in the area outside the IP image area outside the irradiation range is low, so in order to improve efficiency, for example, the brightness value of the light situation in the area outside the IP image area outside the irradiation range can be set to a predetermined value all at once. The brightness of the area light situation outside the IP image area outside the irradiation range may be detected. The predetermined value is a brightness value lower than the brightness value of the IP image. The image signal output by the detector 40 also includes the brightness value of the light situation in the area outside the IP image area outside the irradiation range.
このようにして、照射範囲外IP像領域外領域から光が出ないものである場合であっても、読取処理において、照射範囲外IP像領域外領域の像を得ることができる。IP像領域外領域に励起光L1が反射しにくくなる処理が行われてもよい。この場合、少なくとも照射範囲外IP像領域外領域に励起光L1が反射しにくくなる処理が行われてもよい。
In this way, even if no light is emitted from the area outside the IP image area outside the irradiation range, an image of the area outside the IP image area outside the irradiation area can be obtained in the reading process. Processing may be performed to make it difficult for the excitation light L1 to be reflected in the area outside the IP image area. In this case, processing may be performed to make it difficult for the excitation light L1 to be reflected at least in an area outside the IP image area outside the irradiation range.
検出範囲R110からの被作用光L2の検出結果として得る画像信号を検出範囲画像信号と呼んでもよい。検出範囲画像信号に基づく像を検出範囲像と呼んでもよい。検出範囲像は上述の取得全体像である。
The image signal obtained as a result of detecting the affected light L2 from the detection range R110 may be referred to as a detection range image signal. An image based on the detection range image signal may be called a detection range image. The detection range image is the above-mentioned acquired overall image.
IP像領域外領域の像をIP像領域外領域像と呼んでもよい。照射範囲内IP像領域外領域の像を照射範囲内IP像領域外領域像と呼んでもよい。照射範囲外IP像領域外領域の像を照射範囲外IP像領域外領域像と呼んでもよい。図12の場合、照射範囲内IP像領域外領域像がIP像領域外領域像を構成することになる。図13の場合、照射範囲内IP像領域外領域像と照射範囲外IP像領域外領域像とがIP像領域外領域像を構成することになる。
The image of the area outside the IP image area may be referred to as an image of the area outside the IP image area. The image of the area outside the IP image area within the irradiation range may be referred to as the image of the area outside the IP image area within the irradiation range. The image of the area outside the irradiation range IP image area may be referred to as an image of the area outside the irradiation area IP image area. In the case of FIG. 12, the image of the area outside the IP image area within the irradiation range constitutes the image of the area outside the IP image area. In the case of FIG. 13, the image of the area outside the IP image area within the irradiation range and the image of the area outside the IP image area outside the irradiation range constitute the image of the area outside the IP image area.
照射範囲内IP像領域外領域R130(つまりIP外側領域R130)に励起光L1が照射された結果、低輝度ながら反射光L400が発生し、この反射光L400が検出器40で検出される場合、照射範囲内IP像領域外領域像(つまり、IP外側領域像)は反射光像である。照射範囲外IP像領域外領域像は、センサ41の検出面の画素の暗電流分からの暗像であるか、人工的に低い値を与えられて生成される暗像である。IP像領域外領域像は、照射範囲内IP像領域外領域の反射光像からなるか、照射範囲内IP像領域外領域の反射光像と照射範囲外IP像領域外領域の暗像とからなる像である。
As a result of irradiating the excitation light L1 to the area R130 outside the IP image area within the irradiation range (that is, the IP outer area R130), reflected light L400 is generated although the brightness is low, and when this reflected light L400 is detected by the detector 40, The IP image within the irradiation range and the outside area image (that is, the IP outside area image) are reflected light images. The IP image outside the irradiation range The outside area image is a dark image from the dark current of the pixels on the detection surface of the sensor 41, or a dark image generated by giving an artificially low value. The image of the area outside the IP image area is composed of a reflected light image of the area outside the IP image area within the irradiation range, or a reflected light image of the area outside the IP image area within the irradiation range and a dark image of the area outside the IP image area outside the irradiation range. It is an image.
<消去用光源について>
本例では、図6に示されるように、消去用光源70と、それを制御する消去制御部87とで、イメージングプレート10から放射線像を消去する消去処理を行う消去部91が構成されている。消去部91を構成する消去用光源70及び消去制御部87は、一つのケースに収容されてユニット化されてもよいし、一つのケースに収容されていなくてもよい。消去用光源70は、イメージングプレート10から放射線像を消去するための消去光L3をイメージングプレート10に照射することが可能である。消去光L3は、例えば可視光である。消去光L3は、白色光であってもよいし、赤色の可視光であってもよいし、他の色の可視光であってもよい。消去用光源70は、LED(Light Emission Diode)であってもよいし、ハロゲンランプであってもよいし、他の光源であってもよい。
<About the erasing light source>
In this example, as shown in FIG. 6, the erasing light source 70 and the erasing control section 87 that controls it constitute an erasing section 91 that performs erasing processing to erase the radiation image from the imaging plate 10. . The erasing light source 70 and erasing control section 87 that constitute the erasing section 91 may be housed in one case to form a unit, or may not be housed in one case. The erasing light source 70 can irradiate the imaging plate 10 with erasing light L3 for erasing the radiation image from the imaging plate 10. The erasing light L3 is, for example, visible light. The erasing light L3 may be white light, red visible light, or visible light of another color. The erasing light source 70 may be an LED (Light Emission Diode), a halogen lamp, or another light source.
図4及び5に示されるように、消去用光源70は、例えば一度の照射で、イメージングプレート10の放射線像形成層11の全領域に消去光L3を照射することができる。消去処理では、放射線像形成層11に消去光L3が照射されることにより、放射線像形成層11から放射線像が消去される。
As shown in Figures 4 and 5, the erasing light source 70 can irradiate the entire area of the radiation image forming layer 11 of the imaging plate 10 with the erasing light L3, for example, in one irradiation. In the erasing process, the radiation image forming layer 11 is irradiated with the erasing light L3, thereby erasing the radiation image from the radiation image forming layer 11.
駆動部50は、読取処理が終了すると、イメージングプレート10を保持する保持部20を消去位置まで移動させる。保持部20が消去位置まで移動すると、消去部91が消去処理を行う。消去処理では、消去用光源70が、消去制御部87による制御によって、イメージングプレート10の放射線像形成層11の全領域に対して消去光L3を照射する。これより、イメージングプレート10から放射線像が消去される。
When the reading process is completed, the drive unit 50 moves the holding unit 20 that holds the imaging plate 10 to the erase position. When the holding section 20 moves to the erasing position, the erasing section 91 performs erasing processing. In the erasing process, the erasing light source 70 irradiates the entire region of the radiation image forming layer 11 of the imaging plate 10 with erasing light L3 under the control of the erasing control section 87. As a result, the radiation image is erased from the imaging plate 10.
駆動部50は、イメージングプレート10から放射線像が消去されると、保持部20を排出位置まで移動させる。保持部20が排出位置まで移動すると、保持部20の各固定部分22aが接近位置から離間位置まで移動する。その後、放射線像が消去されたイメージングプレート10が取出口2bに排出される。以後、消去済みイメージングプレート10と言えば、放射線像が消去されたイメージングプレート10を意味する。
When the radiation image is erased from the imaging plate 10, the drive unit 50 moves the holding unit 20 to the ejection position. When the holding part 20 moves to the ejection position, each fixed part 22a of the holding part 20 moves from the approach position to the separation position. Thereafter, the imaging plate 10 from which the radiation image has been erased is discharged to the outlet 2b. Hereinafter, the erased imaging plate 10 means the imaging plate 10 from which the radiation image has been erased.
<画像処理部について>
制御部80の画像処理部81は、取得全体像でのそれぞれの画素位置に対して、センサ41からの画像信号に含まれる輝度値を対応付ける。
<About the image processing section>
The image processing unit 81 of the control unit 80 associates the brightness value included in the image signal from the sensor 41 with each pixel position in the acquired entire image.
ここで、読取処理では、駆動部50は、主走査方向スキャンの繰り返しに合わせて保持部20を副走査方向DRsに移動する。具体的には、主走査方向スキャンが所定回数実行される間に、励起光照射範囲R120の全領域が励起光L10で照射されるように、駆動部50は保持部20を副走査方向DRsに移動する。そして、センサ41は、検出範囲R110での励起光L10の照射位置に応じた輝度値を、励起光L10のラスタスキャンに応じて順次出力する。読取処理では、読取装置1がこのように動作することから、励起光照射範囲R120と、検出範囲R110と、1回の主走査方向スキャンにかかる時間と、主走査方向スキャンの繰り返し周期と、読取処理での主走査方向スキャンの実行回数とが分かれば、センサ41があるタイミングで出力する輝度値が、取得全体像のどの位置の画素の輝度値であるのかが分かる。画像処理部81は、励起光照射範囲R120と、検出範囲R110と、1回の主走査方向スキャンにかかる時間と、主走査方向スキャンの繰り返し周期と、読取処理での主走査方向スキャンの実行回数とに基づいて、センサ41からの画像信号に含まれる複数の輝度値を複数の画素位置にそれぞれ対応付ける。なお、検出制御部85が、センサ41からの画像信号に含まれる複数の輝度値を複数の画素位置にそれぞれ対応付けてもよい。
Here, in the reading process, the drive unit 50 moves the holding unit 20 in the sub-scanning direction DRs in accordance with the repetition of scanning in the main-scanning direction. Specifically, while scanning in the main scanning direction is executed a predetermined number of times, the driving unit 50 moves the holding unit 20 in the sub-scanning direction DRs so that the entire area of the excitation light irradiation range R120 is irradiated with the excitation light L10. Moving. Then, the sensor 41 sequentially outputs brightness values according to the irradiation position of the excitation light L10 in the detection range R110 in accordance with the raster scan of the excitation light L10. In the reading process, since the reading device 1 operates in this way, the excitation light irradiation range R120, the detection range R110, the time required for one scan in the main scanning direction, the repetition period of the scan in the main scanning direction, and the reading If the number of times the scan in the main scanning direction is executed in the process is known, it can be known which position of the pixel in the acquired overall image the brightness value output by the sensor 41 at a certain timing is the brightness value. The image processing unit 81 calculates the excitation light irradiation range R120, the detection range R110, the time required for one main scanning direction scan, the repetition period of the main scanning direction scan, and the number of executions of the main scanning direction scan in the reading process. Based on this, a plurality of brightness values included in the image signal from the sensor 41 are respectively associated with a plurality of pixel positions. Note that the detection control unit 85 may associate a plurality of brightness values included in the image signal from the sensor 41 with a plurality of pixel positions, respectively.
また、画像処理部81は、センサ41からの画像信号に対して画像処理を行う。画像処理部81は、第1検出器及び第2検出器たるセンサ41からの画像信号(検出画像信号)を画像処理する。画像処理部81は、例えば、取得全体像での複数の画素位置に、画像処理後の画像信号の複数の輝度値をそれぞれ対応付けた画像情報を表示制御部82に出力する。表示制御部82は、例えば、画像情報基づいて、検出放射線像を含む取得全体像を表示部3に表示させる。
Further, the image processing unit 81 performs image processing on the image signal from the sensor 41. The image processing unit 81 performs image processing on image signals (detection image signals) from the sensor 41, which is the first detector and the second detector. For example, the image processing unit 81 outputs to the display control unit 82 image information in which a plurality of brightness values of the image signal after image processing are respectively associated with a plurality of pixel positions in the acquired overall image. The display control unit 82 causes the display unit 3 to display the entire acquired image including the detected radiation image, for example, based on the image information.
画像処理部81が行う画像処理には輝度反転処理が含まれてもよい。輝度反転処理とは、輝度反転処理が行われる前の画像信号の各輝度値に対して、当該輝度値が大きいほど小さくなるような変換を行う処理である。ここで、輝度値が取り得る範囲の最大値を輝度最大値と呼ぶ。例えば、輝度反転処理が行われる前の画像信号に含まれるある輝度値を、輝度最大値から差し引いて得られる値が、変換後の当該ある輝度値となる。画像信号に対して輝度反転処理が行われることによって、画像処理後の画像信号では、画像処理前の画像信号とは異なり、イメージングプレート10において蓄積エネルギーが小さい部分からの被励起領域光L20の検出に基づく放射線像の輝度値は大きくなり、イメージングプレート10において蓄積エネルギーが大きい部分からの被励起領域光L20の検出に基づく放射線像の輝度値は小さくなる。また、画像処理後の画像信号では、未露光領域像の輝度値及びIP外側領域像の輝度値は、検出放射線像の輝度値よりも大きくなる。
The image processing performed by the image processing unit 81 may include brightness inversion processing. The brightness inversion process is a process in which each brightness value of an image signal before the brightness inversion process is converted so that the larger the brightness value, the smaller the brightness value. Here, the maximum value of the range that the brightness value can take is called the maximum brightness value. For example, a value obtained by subtracting a certain brightness value included in the image signal before the brightness inversion process is performed from the maximum brightness value becomes the certain brightness value after conversion. By performing brightness inversion processing on the image signal, in the image signal after image processing, unlike the image signal before image processing, excited area light L20 is detected from a portion of the imaging plate 10 where accumulated energy is small. The brightness value of the radiation image based on the imaging plate 10 becomes large, and the brightness value of the radiation image based on the detection of the excited region light L20 from the portion of the imaging plate 10 where the accumulated energy is large becomes small. Furthermore, in the image signal after image processing, the brightness value of the unexposed area image and the brightness value of the IP outer area image are larger than the brightness value of the detected radiation image.
なお、画像処理部81が行う画像処理には、輝度反転処理が含まれなくてもよいし、輝度反転処理以外の処理が含まれてもよい。画像処理には、輝度反転処理以外の処理として、例えば、オフセット補正及び対数変換が含まれてもよい。
Note that the image processing performed by the image processing unit 81 may not include brightness inversion processing, or may include processing other than brightness inversion processing. Image processing may include, for example, offset correction and logarithmic conversion as processing other than brightness inversion processing.
図14及び15は、輝度反転処理が行われる前の画像信号に基づく取得全体像(反転前全体像ともいう)100aの一例を示す概略図である。図16及び17は、輝度反転処理が行われた後の画像信号に基づく取得全体像(反転後全体像ともいう)100bの一例を示す概略図である。図14~17では、反転前全体像100a及び反転後全体像100bがグレースケールで示されている。図14~17では、像の輝度値が大きいほど、その像は明るく(言い換えれば白く)示され、像の輝度値が小さいほど、その像は暗く(言い換えれば黒く)示されている。なお、読取装置1で得られる像を示す後述の図についても同様である。
FIGS. 14 and 15 are schematic diagrams showing an example of an acquired overall image (also referred to as a pre-inversion overall image) 100a based on an image signal before the brightness inversion process is performed. FIGS. 16 and 17 are schematic diagrams showing an example of an obtained overall image (also referred to as an inverted overall image) 100b based on the image signal after the luminance inversion process has been performed. In FIGS. 14 to 17, the entire image 100a before inversion and the entire image 100b after inversion are shown in gray scale. In FIGS. 14 to 17, the larger the brightness value of an image, the brighter the image (in other words, whiter), and the smaller the brightness value of the image, the darker (in other words, black) the image is shown. Note that the same applies to later-described figures showing images obtained by the reading device 1.
図14の取得全体像100aのように、生体の放射線撮影の受光体として用いられたイメージングプレート10に対して、生体組織の放射線像の読み取りを目的として作用光L1による走査を行うことによって得た画像を、生体放射線撮影画像と呼ぶこととする。作用光L1として励起光L10による走査が行われてもよい。図14の放射線像101aのように、生体放射線撮影画像において、IP被作用光L2で形成される像(言い換えれば、IP被作用光L2の検出に基づく像)を、IP生体放射線撮影画像と呼ぶこととする。生体放射線撮影画像も、IP生体放射線撮影画像も、共に生体の放射線撮影によって得た画像であり、生体放射線撮影から得た取得像である。
As shown in the obtained overall image 100a in FIG. 14, an image obtained by scanning the imaging plate 10, which is used as a photoreceptor for radiography of a living body, with the action light L1 for the purpose of reading a radiographic image of a living tissue. The image will be referred to as a biological radiography image. Scanning may be performed using the excitation light L10 as the action light L1. In a living body radiographic image, such as the radiographic image 101a in FIG. 14, an image formed by the IP affected light L2 (in other words, an image based on the detection of the IP affected light L2) is called an IP living body radiographic image. That's it. Both the living body radiography image and the IP living body radiography image are images obtained by radiography of a living body, and are acquired images obtained from living body radiography.
図14には、被励起領域光L20の検出に基づく放射線像(言い換えれば検出放射線像あるいはIP被励起領域光像)101aとIP像領域外領域像102aとを含む反転前全体像100aが示されている。図14の例では、放射線像101aがIP像を構成する。図15には、放射線像(言い換えればIP被励起領域光像)101aと、IP像領域外領域像102aと、未露光領域像(言い換えれば、IP反射光像あるいはIP非輝尽性反射光像)103aとを含む反転前全体像100aが示されている。図15の例では、放射線像101a及び未露光領域像103aがIP像を構成する。図16には、放射線像(言い換えればIP被励起領域光像)101bとIP像領域外領域像102bとを含む反転後全体像100bが示されている。図16の例では、放射線像101bがIP像を構成する。図17には、放射線像(言い換えればIP被励起領域光像)101bと、IP像領域外領域像102bと、未露光領域像(言い換えれば、IP反射光像あるいはIP非輝尽性反射光像)103bとを含む反転後全体像100bが示されている。図17の例では、放射線像101b及び未露光領域像103bがIP像を構成する。本例では、センサ41の検出範囲R110が長方形であることから、図14~17に示されるように、取得全体像の形状は長方形となる。
FIG. 14 shows an overall image 100a before inversion including a radiation image (in other words, a detected radiation image or an IP excited region optical image) 101a based on the detection of the excited region light L20 and an IP image region outside region image 102a. ing. In the example of FIG. 14, the radiation image 101a constitutes an IP image. FIG. 15 shows a radiation image (in other words, an IP excited area optical image) 101a, an IP image area outside area image 102a, and an unexposed area image (in other words, an IP reflected light image or an IP non-stimulable reflected light image). ) 103a is shown. In the example of FIG. 15, the radiation image 101a and the unexposed area image 103a constitute an IP image. FIG. 16 shows an inverted overall image 100b including a radiation image (in other words, an IP excited region optical image) 101b and an IP image region outside region image 102b. In the example of FIG. 16, the radiation image 101b constitutes the IP image. FIG. 17 shows a radiation image (in other words, an IP excited area optical image) 101b, an IP image area outside area image 102b, and an unexposed area image (in other words, an IP reflected light image or an IP non-stimulable reflected light image). ) 103b is shown. In the example of FIG. 17, the radiation image 101b and the unexposed area image 103b constitute an IP image. In this example, since the detection range R110 of the sensor 41 is rectangular, the shape of the obtained entire image is rectangular, as shown in FIGS. 14 to 17.
表示制御部82は、画像処理後の画像信号に基づいて反転後全体像100bを表示部3に表示させる場合、例えば、図16及び17に示されるようなグレースケールで反転後全体像100bを表示部3に表示させる。図16及び17は、反転後全体像100bの表示例を示す図であるともいえる。また、表示制御部82は、輝度反転処理が行われる前の画像信号に基づいて反転前全体像100aを表示部3に表示させる場合、例えば、図14及び15に示されるようなグレースケールで反転前全体像100aを表示部3に表示させる。図14及び15は、反転前全体像100aの表示例を示す図であるともいえる。
When displaying the inverted overall image 100b on the display unit 3 based on the image signal after image processing, the display control unit 82 displays the inverted overall image 100b in grayscale as shown in FIGS. 16 and 17, for example. Display it on Section 3. It can be said that FIGS. 16 and 17 are diagrams showing display examples of the entire image 100b after inversion. In addition, when displaying the entire image 100a before inversion on the display unit 3 based on the image signal before the brightness inversion process, the display control unit 82 inverts the entire image 100a in a gray scale as shown in FIGS. 14 and 15, for example. The entire front image 100a is displayed on the display unit 3. It can be said that FIGS. 14 and 15 are diagrams showing display examples of the entire image 100a before inversion.
<読取装置の動作の一例>
図18は読取装置1の動作の一例を示すフローチャートを示す図である。筐体2の挿入口2aから挿入されたイメージングプレート10が保持部20で保持され、操作部4に含まれるスタートボタンが操作されると、図14のステップs1が実行される。スタートボタンの操作は、図14に示される一連の処理の開始指示操作であるともいえる。
<An example of the operation of the reading device>
FIG. 18 is a flowchart showing an example of the operation of the reading device 1. When the imaging plate 10 inserted through the insertion port 2a of the housing 2 is held by the holding section 20 and the start button included in the operation section 4 is operated, step s1 in FIG. 14 is executed. The operation of the start button can also be said to be an operation for instructing the start of the series of processes shown in FIG.
ステップs1では、駆動部50が、駆動制御部83による制御によって、保持部20を読取開始位置に移動させる。次にステップs2において、イメージングプレート10から放射線像が読み取られる読取処理が行われる。次にステップs3において、駆動部50は、駆動制御部83による制御によって、保持部20を消去位置に移動させる。次にステップs4において、消去用光源70が、消去制御部87による制御によって、消去光L3をイメージングプレート10に照射することによって、イメージングプレート10から照射線像が消去される消去処理が行われる。次にステップs5において、駆動部50は、駆動制御部83による制御によって、保持部20を排出位置に移動させる。次にステップs6において、イメージングプレート10は筐体2の取出口2bに排出される。そしてステップs7において、表示部3は、表示制御部82による制御によって、取得全体像を表示する。ステップs7では、表示部3は、例えば、反転後全体像を図12及び13のようにグレースケール表示する。なお、ステップs7は、ステップs2の後であれば、いつでも実行されてもよい。例えば、ステップs7はステップs3とステップs4の間に実行されてもよい。
In step s1, the drive section 50 moves the holding section 20 to the reading start position under the control of the drive control section 83. Next, in step s2, a reading process is performed in which a radiation image is read from the imaging plate 10. Next, in step s3, the drive section 50 moves the holding section 20 to the erase position under the control of the drive control section 83. Next, in step s4, the erasing light source 70 irradiates the imaging plate 10 with the erasing light L3 under the control of the erasing control unit 87, thereby performing an erasing process in which the irradiated image is erased from the imaging plate 10. Next, in step s5, the drive section 50 moves the holding section 20 to the ejection position under the control of the drive control section 83. Next, in step s6, the imaging plate 10 is discharged to the outlet 2b of the housing 2. Then, in step s7, the display section 3 displays the acquired entire image under the control of the display control section 82. In step s7, the display unit 3 displays the entire image after inversion in gray scale, for example, as shown in FIGS. 12 and 13. Note that step s7 may be executed at any time after step s2. For example, step s7 may be performed between step s3 and step s4.
<イメージングプレートの傾き角度の特定について>
画像処理部81は、例えば、イメージングプレート10の基準姿勢からの傾き角度(IP傾き角度ともいう)を特定する傾き角度特定処理を行ってもよい。画像処理部81は、傾き角度特定処理において、例えば、検出器40が出力する画像信号、具体的にはIP被作用光画像信号に基づいてIP傾き角度を特定する。画像処理部81はIP傾き角度を特定する特定部(傾き角度特定部ともいう)として機能する。本例では、イメージングプレート10の存在領域を二次元特徴ベクトル集合とみなして主成分分析を行うことで基準姿勢からの回転角度は検出できる。以下に傾き角度特定処理の具体例について説明するが、傾き角度特定処理は下記の例に限られない。
<About identifying the tilt angle of the imaging plate>
The image processing unit 81 may perform, for example, a tilt angle specifying process to specify the tilt angle (also referred to as IP tilt angle) of the imaging plate 10 from the reference posture. In the tilt angle identifying process, the image processing unit 81 identifies the IP tilt angle based on, for example, the image signal output by the detector 40, specifically, the IP affected light image signal. The image processing section 81 functions as a specifying section (also referred to as a tilt angle specifying section) that specifies the IP tilt angle. In this example, the rotation angle from the reference orientation can be detected by performing principal component analysis while regarding the region where the imaging plate 10 exists as a two-dimensional feature vector set. A specific example of the tilt angle specifying process will be described below, but the tilt angle specifying process is not limited to the following example.
上述のように、本例の基準姿勢とは、イメージングプレート10の短手方向及び長手方向が主走査方向DRm及び副走査方向DRsにそれぞれ平行となるようなイメージングプレート10の姿勢である。言い換えれば、基準姿勢とは、例えば、イメージングプレート10の短手方向が主走査方向DRmに平行に、イメージングプレート10の長手方向が副走査方向DRs平行となるようなイメージングプレート10の姿勢である。保持部20がイメージングプレート10を適切に保持していない場合、保持部20で保持されたイメージングプレート10をその前面側から見ると、図19に示されるように、イメージングプレート10の長手方向(IP長手方向ともいう)が副走査方向DRsに対して傾いて、イメージングプレート10が基準姿勢に対して傾くことがある。言い換えれば、イメージングプレート10の短手方向(IP短手方向ともいう)が主走査方向DRmに対して傾いて、イメージングプレート10が基準姿勢に対して傾くことがある。図19では、基準姿勢のイメージングプレート10が破線で示されている。
As described above, the reference posture in this example is a posture of the imaging plate 10 such that the lateral direction and the longitudinal direction of the imaging plate 10 are parallel to the main scanning direction DRm and the sub-scanning direction DRs, respectively. In other words, the reference posture is, for example, a posture of the imaging plate 10 such that the lateral direction of the imaging plate 10 is parallel to the main scanning direction DRm, and the longitudinal direction of the imaging plate 10 is parallel to the sub-scanning direction DRs. When the holding part 20 does not hold the imaging plate 10 properly, when the imaging plate 10 held by the holding part 20 is viewed from the front side, as shown in FIG. (also referred to as the longitudinal direction) may be tilted with respect to the sub-scanning direction DRs, and the imaging plate 10 may be tilted with respect to the reference posture. In other words, the lateral direction (also referred to as the IP lateral direction) of the imaging plate 10 may be tilted with respect to the main scanning direction DRm, and the imaging plate 10 may be tilted with respect to the reference posture. In FIG. 19, the imaging plate 10 in the standard attitude is shown by a broken line.
本例では、IP傾き角度、つまりイメージングプレート10の基準姿勢からの傾き角度は、副走査方向DRsに対するIP長手方向の傾き角度と一致する。言い換えれば、IP傾き角度は、主走査方向DRmに対するIP短手方向の傾き角度と一致する。
In this example, the IP tilt angle, that is, the tilt angle of the imaging plate 10 from the reference posture, matches the tilt angle of the IP longitudinal direction with respect to the sub-scanning direction DRs. In other words, the IP inclination angle matches the inclination angle in the IP transverse direction with respect to the main scanning direction DRm.
一方で、センサ41の検出範囲R110(図10等参照)の長手方向は、センサ41からの画像信号に基づく取得全体像の長手方向に対応する。本例では、検出範囲R110の長手方向は副走査方向DRsに平行であることから、取得全体像の長手方向は、副走査方向DRsに対応しているといえる。したがって、イメージングプレート10の姿勢が基準姿勢である場合、取得全体像の長手方向と、取得全体像のうちのイメージングプレート10に相当する部分(IP相当部分ともいう)の長手方向とは、互いに一致する。一方で、イメージングプレート10が基準姿勢に対して傾いている場合、取得全体像のIP相当部分の長手方向は、取得全体像の長手方向に対して傾くことになる。言い換えれば、イメージングプレート10が基準姿勢に対して傾いている場合、取得全体像に含まれるIP相当部分の短手方向は、取得全体像の短手方向に対して傾くことになる。
On the other hand, the longitudinal direction of the detection range R110 of the sensor 41 (see FIG. 10, etc.) corresponds to the longitudinal direction of the entire image obtained based on the image signal from the sensor 41. In this example, since the longitudinal direction of the detection range R110 is parallel to the sub-scanning direction DRs, it can be said that the longitudinal direction of the obtained entire image corresponds to the sub-scanning direction DRs. Therefore, when the posture of the imaging plate 10 is the reference posture, the longitudinal direction of the acquired entire image and the longitudinal direction of the portion of the acquired entire image that corresponds to the imaging plate 10 (also referred to as the IP equivalent portion) are coincident with each other. do. On the other hand, when the imaging plate 10 is tilted with respect to the reference posture, the longitudinal direction of the IP-corresponding portion of the obtained entire image is inclined with respect to the longitudinal direction of the obtained entire image. In other words, when the imaging plate 10 is tilted with respect to the reference posture, the lateral direction of the portion corresponding to the IP included in the acquired overall image is tilted with respect to the lateral direction of the acquired entire image.
図20は、イメージングプレート10が基準姿勢に対して傾いている場合に得られる反転前全体像100aの一例を示す図である。図20に示される反転前全体像100aには、傾いたIP相当部分105aが含まれる。
FIG. 20 is a diagram showing an example of an overall image 100a before inversion obtained when the imaging plate 10 is tilted with respect to the reference posture. The entire image 100a before inversion shown in FIG. 20 includes a tilted IP equivalent portion 105a.
本例では、取得全体像の長手方向に対するIP相当部分(言い換えればIP像)の長手方向の傾き角度は、IP傾き角度と一致する。そこで、画像処理部81は、センサ41からの画像信号に基づいて、取得全体像の長手方向に対するIP相当部分の長手方向の傾き角度を求める。そして、画像処理部81は、求めた傾き角度をIP傾き角度とする。以下にこの画像処理部81の動作について詳細に説明する。
In this example, the inclination angle in the longitudinal direction of the IP equivalent portion (in other words, the IP image) with respect to the longitudinal direction of the entire acquired image matches the IP inclination angle. Therefore, based on the image signal from the sensor 41, the image processing unit 81 determines the inclination angle in the longitudinal direction of the portion corresponding to the IP with respect to the longitudinal direction of the obtained entire image. Then, the image processing unit 81 sets the obtained tilt angle as the IP tilt angle. The operation of this image processing section 81 will be explained in detail below.
傾き角度特定処理において、画像処理部81は、輝度反転処理が行われる前の画像信号(反転前の画像信号ともいう)に基づく反転前全体像を二値化して二値化像を生成する。画像処理部81は、まず、反転前の画像信信号に含まれる、反転前全体像の各輝度値と、予め設定されたしきい値とを比較する。そして、画像処理部81は、反転前全体像の各輝度値について、しきい値以上の輝度値を“1”に置き換え、しきい値未満の輝度値を“0”に置き換える。これにより、反転前全体像が二値化されて二値化像が得られる。
In the tilt angle specifying process, the image processing unit 81 generates a binarized image by binarizing the entire image before inversion based on the image signal before the brightness inversion process (also referred to as the image signal before inversion). The image processing unit 81 first compares each luminance value of the entire image before inversion, which is included in the image signal before inversion, with a preset threshold value. Then, the image processing unit 81 replaces each brightness value of the entire image before inversion with "1" if the brightness value is equal to or more than the threshold value, and replaces the brightness value less than the threshold value with "0". As a result, the entire image before inversion is binarized and a binarized image is obtained.
二値化で使用されるしきい値は、例えば、反転前の画像信号に含まれるIP像領域外領域像の輝度値よりも大きく、かつ反転前の画像信号に含まれる未露光領域像の輝度値よりも小さい値に設定される。例えば、反転前の画像信号に含まれるIP像領域外領域像の輝度値がIL1とし、反転前の画像信号に含まれる未露光領域像の輝度値がIL2である場合を考える。IL1<IL2である。この場合、しきい値は、例えばIL1<IL3<IL2の関係となるIL3に設定される。しきい値は、例えば、実稼働前の読取装置1で得られた反転前の画像信号に基づいて設定され、読取装置1の画像処理部81に予め記憶される。なお、反転前の画像信号に含まれる検出放射線像の輝度値は、反転前の画像信号に含まれる未露光領域像の輝度値よりも大きくなることから(図15参照)、しきい値は、反転前の画像信号に含まれる検出放射線像の輝度値よりも小さくなる。
The threshold value used in the binarization is, for example, larger than the brightness value of the IP image area outside area image included in the image signal before inversion, and the brightness value of the unexposed area image included in the image signal before inversion. Set to a value smaller than the value. For example, consider a case where the brightness value of the IP image outside area image included in the image signal before inversion is IL1, and the brightness value of the unexposed area image included in the image signal before inversion is IL2. IL1<IL2. In this case, the threshold value is set to IL3, which satisfies the relationship IL1<IL3<IL2, for example. The threshold value is set, for example, based on a pre-inversion image signal obtained by the reading device 1 before actual operation, and is stored in advance in the image processing unit 81 of the reading device 1. Note that since the brightness value of the detected radiation image included in the image signal before inversion is larger than the brightness value of the unexposed area image included in the image signal before inversion (see FIG. 15), the threshold value is The brightness value is smaller than the brightness value of the detected radiation image included in the image signal before inversion.
しきい値が上記のように設定されることによって、二値化像では、IP像領域外領域に相当する部分の各輝度値は“0”となる。また、イメージングプレート10に未露光部分が含まれているか否かにかかわらず、二値化像では、イメージングプレート10に相当する部分の各輝度値は“1”となる。
By setting the threshold as described above, in the binarized image, each luminance value of the portion corresponding to the area outside the IP image area becomes "0". Furthermore, regardless of whether or not the imaging plate 10 includes an unexposed portion, in the binarized image, each luminance value of the portion corresponding to the imaging plate 10 is “1”.
図21は二値化像500の一例を示す概略図である。図21には、図20に示される反転前全体像100aを二値化して得られた二値化像500が示されている。図21では、二値化像500において、輝度値が“1”の領域(高輝度領域ともいう)501は白で示され、輝度値が“0”の領域(低輝度領域ともいう)502は黒で示されている。図21から理解できるように、二値化像500では、高輝度領域501がイメージングプレート10に相当し、低輝度領域502がIP像領域外領域に相当する。高輝度領域501の外形は、イメージングプレート10の外形に応じた形状となる。高輝度領域501の像(高輝度領域像ともいう)はIP像でもあり、低輝度領域502の像(低輝度領域像ともいう)はIP像領域外領域像でもある。
FIG. 21 is a schematic diagram showing an example of a binarized image 500. FIG. 21 shows a binarized image 500 obtained by binarizing the entire image 100a before inversion shown in FIG. 20. In FIG. 21, in a binarized image 500, an area 501 with a brightness value of "1" (also referred to as a high brightness area) is shown in white, and an area 502 with a brightness value of "0" (also referred to as a low brightness area) is shown in white. Shown in black. As can be understood from FIG. 21, in the binarized image 500, a high brightness area 501 corresponds to the imaging plate 10, and a low brightness area 502 corresponds to an area outside the IP image area. The outer shape of the high brightness region 501 corresponds to the outer shape of the imaging plate 10. The image of the high brightness area 501 (also referred to as a high brightness area image) is also an IP image, and the image of the low brightness area 502 (also referred to as a low brightness area image) is also an area image outside the IP image area.
イメージングプレート10の形状をイメージングプレート形状と呼ぶこととし、イメージングプレート形状に関するデータ(言い換えれば、イメージングプレート形状を表すデータ)をイメージングプレート形状データと呼ぶこととする。イメージングプレート形状データには、イメージングプレート10のサイズ、形及び傾きの少なくとも一つなどが含まれうる。また、イメージングプレート形状を抽出する処理を、イメージングプレート形状抽出処理と呼んでよい。イメージングプレート形状データはイメージングプレート形状抽出処理から得ることが可能である。また、図20の反転前全体像100aのように、イメージングプレート10を撮影して得た画像をイメージングプレート撮影画像と呼ぶこととする。
The shape of the imaging plate 10 will be referred to as an imaging plate shape, and data regarding the imaging plate shape (in other words, data representing the imaging plate shape) will be referred to as imaging plate shape data. The imaging plate shape data may include at least one of the size, shape, and inclination of the imaging plate 10. Further, the process of extracting the shape of the imaging plate may be referred to as the process of extracting the shape of the imaging plate. Imaging plate shape data can be obtained from the imaging plate shape extraction process. Furthermore, an image obtained by photographing the imaging plate 10, such as the entire image 100a before inversion in FIG. 20, will be referred to as an imaging plate photographed image.
図21の二値化像500のように、イメージングプレート10に光を照射して生じた被作用光の検出結果として得られる画像を処理して得たイメージングプレート形状を表す画像をイメージングプレート形状画像と呼ぶこととする。図21の高輝度領域501の像のように、IP被作用光を処理してイメージングプレート形状を抽出して形成されている像をIPイメージングプレート形状画像と呼ぶこととする。イメージングプレート形状画像もIPイメージングプレート形状画像も、IP被作用光画像信号が処理されて抽出されたイメージングプレート形状を表す像からなるので、イメージングプレート形状抽出画像と呼んでよい。
An image representing the imaging plate shape obtained by processing an image obtained as a result of detecting the acted light generated by irradiating the imaging plate 10 with light, such as the binary image 500 in FIG. 21, is referred to as an imaging plate shape image. An image formed by processing the IP acted light and extracting the imaging plate shape, such as the image of the high-brightness area 501 in FIG. 21, is referred to as an IP imaging plate shape image. Both the imaging plate shape image and the IP imaging plate shape image are composed of images representing the imaging plate shape extracted by processing the IP acted light image signal, and therefore may be referred to as imaging plate shape extraction images.
ここで、二値化像500に含まれる高輝度領域501は、反転前全体像100aに含まれるIP相当部分105aに対応する。画像処理部81は、傾き角度特定処理において、生成した二値化像500に含まれる高輝度領域501を構成する複数の画素の位置を分析対象データとして主成分分析を行って、分析対象データについての第1主成分軸を求める。
Here, the high brightness region 501 included in the binarized image 500 corresponds to the IP equivalent portion 105a included in the entire image 100a before inversion. In the tilt angle identification process, the image processing unit 81 performs principal component analysis using the positions of a plurality of pixels constituting the high-intensity region 501 included in the generated binarized image 500 as data to be analyzed, and determines the data to be analyzed. Find the first principal component axis of .
主成分分析において、画像処理部81は、二値化像500に含まれる高輝度領域501の重心501a(図21参照)を求める。そして、画像処理部81は、図21に示されるように、重心501aを原点とするXY座標系を二値化像500に対して設定する。このとき、X軸は反転前全体像100aの長手方向に平行とし、Y軸は反転前全体像100aの短手方向に平行とする。後述するように、画像処理部81は、XY座標系を重心501aを中心にして回転させる。本例では、XY座標系の右回りの回転角度をプラスとし、XY座標系の左回りの回転角度をマイナスとする。X軸が反転前全体像100aの長手方向に平行であり、かつY軸が反転前全体像100aの短手方向に平行であるXY座標系の姿勢を初期姿勢と呼ぶ。
In the principal component analysis, the image processing unit 81 determines the center of gravity 501a (see FIG. 21) of the high brightness region 501 included in the binarized image 500. The image processing unit 81 then sets an XY coordinate system with the center of gravity 501a as the origin for the binarized image 500, as shown in FIG. At this time, the X axis is parallel to the longitudinal direction of the entire image 100a before inversion, and the Y axis is parallel to the lateral direction of the entire image 100a before inversion. As will be described later, the image processing unit 81 rotates the XY coordinate system around the center of gravity 501a. In this example, the clockwise rotation angle of the XY coordinate system is set as a plus, and the counterclockwise rotation angle of the XY coordinate system is set as a minus. The posture of the XY coordinate system in which the X axis is parallel to the longitudinal direction of the pre-reversal overall image 100a and the Y axis is parallel to the lateral direction of the pre-inversion overall image 100a is called an initial posture.
画像処理部81は、初期姿勢のXY座標系を二値化像500に対して設定すると、高輝度領域501を構成する複数の画素のそれぞれについて、当該画素の位置510からY軸に下ろした垂線の長さLを求める。次に、画像処理部81は、高輝度領域501を構成する複数の画素についてそれぞれ求めた複数の長さLの分散を求める。この分散を、初期姿勢のときの分散と呼ぶ。
When the image processing unit 81 sets the XY coordinate system of the initial posture for the binarized image 500, the image processing unit 81 calculates a perpendicular line drawn from the position 510 of the pixel to the Y axis for each of the plurality of pixels constituting the high brightness area 501. Find the length L. Next, the image processing unit 81 calculates the variance of the plurality of lengths L obtained for each of the plurality of pixels constituting the high brightness area 501. This dispersion is called the dispersion at the initial posture.
画像処理部81は、XY座標系を重心501aを中心にして初期姿勢から右回り520Rに例えば0.1度ずつ回転させ、XY座標系を0.1度回転させるたびに同様にして複数の長さLの分散を求める右回り処理を行う。右回り処理において、画像処理部81は、XY座標系を右回り520Rに最終的に例えば90度回転させる。また、画像処理部81は、XY座標系を重心501aを中心にして初期姿勢から左回り520Lに例えば0.1度ずつ回転させ、XY座標系を0.1度回転させるたびに同様にして複数の長さLの分散を求める左回り処理を行う。左回り処理において、画像処理部81は、XY座標系を左回り520Lに最終的に例えば90度回転させる。
The image processing unit 81 rotates the XY coordinate system from the initial posture to the clockwise 520R about the center of gravity 501a, for example, by 0.1 degrees, and performs clockwise processing to obtain the variance of multiple lengths L in the same manner every time the XY coordinate system is rotated by 0.1 degrees. In the clockwise processing, the image processing unit 81 finally rotates the XY coordinate system to the clockwise 520R, for example, by 90 degrees. The image processing unit 81 also rotates the XY coordinate system from the initial posture to the counterclockwise 520L about the center of gravity 501a, for example, by 0.1 degrees, and performs counterclockwise processing to obtain the variance of multiple lengths L in the same manner every time the XY coordinate system is rotated by 0.1 degrees. In the counterclockwise processing, the image processing unit 81 finally rotates the XY coordinate system to the counterclockwise 520L, for example, by 90 degrees.
画像処理部81は、右回り処理及び左回り処理を実行すると、右回り処理及び左回り処理において得られた複数の分散と初期姿勢のときの分散のうちの最小値を特定する。そして、画像処理部81は、特定した最小値が得られたときのXY座標系のY軸を第1主成分軸とする。第1主成分軸は、高輝度領域501を構成する複数の画素の位置から、それに下ろした垂線の長さの分散が最小となるような軸であると言える。以後、第1主成分軸に垂直であり、かつ重心501aを通る軸を、第2主成分軸と呼ぶことがある。また、右回り処理及び左回り処理において得られる複数の分散と初期姿勢のときの分散のうちの最小値が得られたときのXY座標系を、分散最小姿勢のXY座標系と呼ぶことがある。
When the image processing unit 81 executes the clockwise processing and the counterclockwise processing, the image processing unit 81 specifies the minimum value among the plurality of variances obtained in the clockwise processing and the counterclockwise processing and the variance at the initial posture. Then, the image processing unit 81 sets the Y axis of the XY coordinate system when the specified minimum value is obtained as the first principal component axis. The first principal component axis can be said to be an axis that minimizes the dispersion of the lengths of perpendicular lines drawn from the positions of the plurality of pixels constituting the high-luminance region 501. Hereinafter, the axis that is perpendicular to the first principal component axis and passes through the center of gravity 501a may be referred to as the second principal component axis. In addition, the XY coordinate system when the minimum value of the multiple variances obtained in clockwise processing and counterclockwise processing and the variance at the initial posture is obtained is sometimes called the XY coordinate system of the minimum variance posture. .
図22は、図21に示される二値化像500から得られた第1主成分軸551を示す概略図である。図22には、初期姿勢のXY座標系のY軸が破線で示されている。図22に示されるように、第1主成分軸551は高輝度領域501の長手方向に一致する。画像処理部81は、第1主成分軸551を求めると、第1主成分軸551と一致するY軸を有するXY座標系、つまり分散最小姿勢のXY座標系についての初期姿勢からの回転角度αを求める。そして、画像処理部81は、求めた回転角度αを、取得全体像の長手方向に対するIP相当部分の長手方向の傾き角度αとする。初期姿勢のXY座標系のY軸は取得全体像の長手方向に対応し、第1主成分軸551(言い換えれば、分散最小姿勢のXY座標系のY軸)は取得全体像に含まれるIP相当部分の長手方向に対応する。したがって、回転角度αは、取得全体像の長手方向に対するIP相当部分の長手方向の傾き角度であると言える。分散最小姿勢のXY座標系が右回り処理において得られる場合には、回転角度αはプラスの値を示し、分散最小姿勢のXY座標系が左回り処理において得られる場合には、回転角度αはマイナスの値を示す。そして、分散最小姿勢のXY座標系が初期姿勢のXY座標系と一致する場合には、回転角度αは零となる。
FIG. 22 is a schematic diagram showing the first principal component axis 551 obtained from the binarized image 500 shown in FIG. 21. In FIG. 22, the Y axis of the XY coordinate system in the initial posture is shown by a broken line. As shown in FIG. 22, the first principal component axis 551 coincides with the longitudinal direction of the high brightness region 501. When the image processing unit 81 calculates the first principal component axis 551, the image processing unit 81 calculates the rotation angle α from the initial posture for the XY coordinate system having the Y axis that coincides with the first principal component axis 551, that is, the XY coordinate system of the minimum variance posture. seek. Then, the image processing unit 81 sets the obtained rotation angle α as the inclination angle α of the portion corresponding to the IP in the longitudinal direction with respect to the longitudinal direction of the obtained entire image. The Y-axis of the XY coordinate system of the initial posture corresponds to the longitudinal direction of the acquired entire image, and the first principal component axis 551 (in other words, the Y-axis of the XY coordinate system of the minimum variance posture) corresponds to the IP included in the acquired entire image. Corresponds to the longitudinal direction of the part. Therefore, it can be said that the rotation angle α is the inclination angle of the portion corresponding to the IP in the longitudinal direction with respect to the longitudinal direction of the obtained entire image. If the XY coordinate system of the minimum variance orientation is obtained in clockwise processing, the rotation angle α shows a positive value, and if the XY coordinate system of the minimum variance orientation is obtained in counterclockwise processing, the rotation angle α is Indicates a negative value. When the XY coordinate system of the minimum variance orientation matches the XY coordinate system of the initial orientation, the rotation angle α becomes zero.
画像処理部81は、以上のようにして、取得全体像の二値化像500から取得全体像の長手方向に対するIP相当部分の長手方向の傾き角度αを求めると、求めた傾き角度αをIP傾き角度αとする。イメージングプレート10をその前面側から平面視した場合、IP傾き角度αがプラスのときには、イメージングプレート10は基準姿勢に対して右回りに傾斜し、IP傾き角度αがマイナスのときは、イメージングプレート10は基準姿勢に対して左回りに傾斜している。以後、イメージングプレート10の傾きに関して、単に右回りと言えば、イメージングプレート10をその前面側から見たときの右回りを意味し、単に左回りと言えば、イメージングプレート10をその前面側から見たときの左回りを意味する。
As described above, the image processing unit 81 calculates the tilt angle α in the longitudinal direction of the portion corresponding to the IP with respect to the longitudinal direction of the acquired whole image from the binarized image 500 of the acquired whole image, and then converts the obtained tilt angle α into the IP Let the inclination angle be α. When the imaging plate 10 is viewed from the front side, when the IP tilt angle α is positive, the imaging plate 10 is tilted clockwise with respect to the reference posture, and when the IP tilt angle α is negative, the imaging plate 10 is tilted clockwise. is tilted counterclockwise with respect to the reference attitude. Hereinafter, regarding the inclination of the imaging plate 10, a simple clockwise rotation means a clockwise rotation when the imaging plate 10 is viewed from the front side, and a simple counterclockwise rotation means a clockwise rotation when the imaging plate 10 is viewed from the front side. It means turning counterclockwise when
以上のような傾き角度特定処理は、上述の図18に示される一連の処理の中で実行されてもよいし、図18に示される処理とは別のタイミングで実行されてもよい。また、画像処理部81で求められたIP傾き角度は表示部3で表示されてもよい。このとき、表示部3は、IP傾き角度を、例えば上述のステップs7において取得全体像と同時に表示してもよいし、取得全体像を表示しないときに表示してもよい。
The above-described tilt angle specifying process may be executed in the series of processes shown in FIG. 18 described above, or may be executed at a timing different from the process shown in FIG. 18. Further, the IP tilt angle obtained by the image processing section 81 may be displayed on the display section 3. At this time, the display unit 3 may display the IP tilt angle at the same time as the acquired overall image, for example in step s7 described above, or may display it when not displaying the acquired overall image.
なお、毎回上記のような分散計算を行う代わりに、初期姿勢における分散σX2,σY2に加えて、共分散σXYを求めてこれを使用して回転後の分散を計算するようにしてもよい。
Note that instead of performing the above-described variance calculation each time, in addition to the variances σX2 and σY2 in the initial posture, a covariance σXY may be obtained and used to calculate the variance after rotation.
このように、本例では、画像処理部81は、イメージングプレート10からの発光光L2及び反射光の検出結果としての画像信号に基づいてIP傾き角度を特定していることから、IP傾き角度を適切に特定することができる。
As described above, in this example, the image processing unit 81 specifies the IP tilt angle based on the image signal as the detection result of the emitted light L2 and the reflected light from the imaging plate 10. Can be appropriately identified.
例えば、センサ41が反射光を検出できない場合であって、イメージングプレート10に未露光部分が含まれる場合を考える。この場合、センサ41からの画像信号に基づく反転前全体像に含まれる未露光領域像及びIP像領域外領域像の各輝度値は零となる。したがって、反転前全体像を二値化して得られる二値化像500では、未露光領域像及びIP像領域外領域像に相当する部分の輝度値はすべて“0”となり、未露光領域像及びIP像領域外領域像に相当する部分はすべて低輝度領域502となる。よって、イメージングプレート10に未露光部分が含まれる場合、二値化像500の高輝度領域501には、未露光部分に相当する部分が含まれなくなり、高輝度領域501は、反転前全体像に含まれるIP相当部分に対応しなくなる。つまり、イメージングプレート10に未露光部分が含まれる場合、高輝度領域501の外形は、イメージングプレート10の外形に応じた形状にならない。このため、画像処理部81は、高輝度領域501について主成分分析を行った場合、イメージングプレート10の長手方向に対応する第1主成分軸を求めることができず、取得全体像の長手方向に対するIP相当部分の長手方向の傾き角度を適切に求めることができない可能性がある。
For example, consider a case where the sensor 41 cannot detect reflected light and the imaging plate 10 includes an unexposed portion. In this case, each brightness value of the unexposed area image and the IP image area outside area image included in the entire image before inversion based on the image signal from the sensor 41 becomes zero. Therefore, in the binarized image 500 obtained by binarizing the entire image before inversion, the brightness values of the portions corresponding to the unexposed area image and the IP image area outside area image are all "0", and the unexposed area image and The entire portion corresponding to the image of the area outside the IP image area becomes a low-luminance area 502. Therefore, when the imaging plate 10 includes an unexposed part, the high brightness area 501 of the binarized image 500 no longer includes the part corresponding to the unexposed part, and the high brightness area 501 is not included in the entire image before inversion. It no longer corresponds to the included IP equivalent part. That is, when the imaging plate 10 includes an unexposed portion, the outer shape of the high-brightness region 501 does not correspond to the outer shape of the imaging plate 10. For this reason, when the image processing unit 81 performs principal component analysis on the high brightness region 501, it is not possible to determine the first principal component axis corresponding to the longitudinal direction of the imaging plate 10, and There is a possibility that the inclination angle in the longitudinal direction of the IP equivalent portion cannot be appropriately determined.
これに対して、本例では、センサ41は反射光をある程度検出することができ、画像処理部81は、イメージングプレート10からの輝尽光L5及び反射光の検出結果としての画像信号に基づく反転前全体像を二値化して二値化像500を生成している。そのため、二値化像500では、イメージングプレート10に未露光部分が含まれている場合であっても、図21及び22に示されるように、高輝度領域501は、反転前全体像に含まれるIP相当部分(言い換えればIP像)に対応するようになる。つまり、高輝度領域501の外形は、イメージングプレート10の外形に応じた形状となる。例えば、図15に示されるような未露光領域像103aを含む反転前全体像100aからでも二値化処理により図21及び22に示されるように未露光領域をIP像領域に含めた二値化像を得ることができる。これにより、画像処理部81は、高輝度領域501について主成分分析を行った場合、イメージングプレート10の長手方向に対応する第1主成分軸を求めることができ、取得全体像の長手方向に対するIP相当部分の長手方向の傾き角度を適切に求めることができる。よって、画像処理部81はIP傾き角度を適切に特定することができる。なお、高輝度領域501の像のようなIP像を二値化処理して得た像をIP二値化像と呼んでよい。
In contrast, in this example, the sensor 41 can detect the reflected light to some extent, and the image processing unit 81 performs inversion based on the image signal as a detection result of the photostimulated light L5 and the reflected light from the imaging plate 10. The previous entire image is binarized to generate a binarized image 500. Therefore, in the binarized image 500, even if the imaging plate 10 includes an unexposed portion, the high brightness region 501 is included in the entire image before inversion, as shown in FIGS. 21 and 22. It comes to correspond to the IP equivalent portion (in other words, the IP image). In other words, the outer shape of the high-intensity region 501 corresponds to the outer shape of the imaging plate 10. For example, even from the entire image 100a before inversion including the unexposed area image 103a as shown in FIG. 15, the unexposed area is included in the IP image area by binarization processing as shown in FIGS. 21 and 22. You can get the image. Thereby, when the image processing unit 81 performs principal component analysis on the high brightness region 501, it is possible to obtain the first principal component axis corresponding to the longitudinal direction of the imaging plate 10, and the IP The inclination angle of the corresponding portion in the longitudinal direction can be appropriately determined. Therefore, the image processing unit 81 can appropriately specify the IP tilt angle. Note that an image obtained by binarizing an IP image such as the image of the high brightness area 501 may be referred to as an IP binarized image.
<イメージングプレートのサイズの特定について>
画像処理部81は、例えば、イメージングプレート10のサイズ(IPサイズともいう)を特定するサイズ特定処理を行ってもよい。画像処理部81は、サイズ特定処理において、例えば、検出器40が出力する画像信号に基づいてIPサイズを特定する。画像処理部81はIPサイズを特定する特定部(サイズ特定部ともいう)として機能する。以下にサイズ特定処理の具体例について説明するが、サイズ特定処理は以下の例に限られない。
<About identifying the size of the imaging plate>
For example, the image processing unit 81 may perform size identification processing to identify the size of the imaging plate 10 (also referred to as IP size). In the size identification process, the image processing unit 81 identifies the IP size based on the image signal output by the detector 40, for example. The image processing section 81 functions as a specifying section (also referred to as a size specifying section) that specifies the IP size. A specific example of the size specifying process will be described below, but the size specifying process is not limited to the following example.
画像処理部81は、例えば、上記と同様にして、反転前の画像信号に基づく反転前全体像を二値化して二値化像500を生成する。そして、画像処理部81は、生成した二値化像500に基づいてIPサイズを特定する。例えば、画像処理部81は、イメージングプレート10の長手方向のサイズ(長手サイズともいう)と、イメージングプレート10の短手方向のサイズ(短手サイズともいう)とを数値で特定する。
The image processing unit 81 generates the binarized image 500 by binarizing the entire image before inversion based on the image signal before inversion, for example, in the same manner as described above. Then, the image processing unit 81 specifies the IP size based on the generated binarized image 500. For example, the image processing unit 81 numerically specifies the size of the imaging plate 10 in the longitudinal direction (also referred to as longitudinal size) and the size of the imaging plate 10 in the lateral direction (also referred to as lateral size).
画像処理部81は、IPサイズを特定する場合、上記と同様にして、二値化像500に含まれる高輝度領域501を構成する複数の画素の位置を分析対象データとして主成分分析を行って、分析対象データについての第1主成分軸551を求める。そして、画像処理部81は、第1主成分軸551に垂直であって、重心501aを通る第2主成分軸552を求める。
When identifying the IP size, the image processing unit 81 performs principal component analysis using the positions of multiple pixels that make up the high-luminance region 501 contained in the binarized image 500 as the data to be analyzed in the same manner as described above, and determines a first principal component axis 551 for the data to be analyzed. Then, the image processing unit 81 determines a second principal component axis 552 that is perpendicular to the first principal component axis 551 and passes through the center of gravity 501a.
図23は第1主成分軸551及び第2主成分軸552の一例を示す概略図である。図23には、上述の図14に示される反転前全体像100aを二値化して得られた二値化像500と、当該二値化像500に基づいて求められた第1主成分軸551及び第2主成分軸552とが示されている。第1主成分軸551は、イメージングプレート10に相当する高輝度領域501の長手方向と平行である。また、第2主成分軸552は高輝度領域501の短手方向と平行である。
FIG. 23 is a schematic diagram showing an example of the first principal component axis 551 and the second principal component axis 552. FIG. 23 shows a binarized image 500 obtained by binarizing the entire image 100a before inversion shown in FIG. and a second principal component axis 552. The first principal component axis 551 is parallel to the longitudinal direction of the high brightness region 501 corresponding to the imaging plate 10. Further, the second principal component axis 552 is parallel to the lateral direction of the high brightness region 501.
図23に示されるように、画像処理部81は、高輝度領域501の第1主成分軸551に沿った画素数(長手方向の画素数ともいう)N1を求める。また、画像処理部81は、高輝度領域501の第2主成分軸552に沿った画素数(短手方向の画素数ともいう)N2を求める。そして、画像処理部81は、長手方向の画素数N1に基づいてイメージングプレート10の長手サイズを求め、短手方向の画素数N2に基づいてイメージングプレート10の短手サイズを求める。
As shown in FIG. 23, the image processing unit 81 calculates the number of pixels N1 along the first principal component axis 551 (also referred to as the number of pixels in the longitudinal direction) of the high brightness region 501. The image processing unit 81 also calculates the number of pixels N2 along the second principal component axis 552 (also referred to as the number of pixels in the lateral direction) of the high brightness region 501. Then, the image processing unit 81 determines the longitudinal size of the imaging plate 10 based on the number N1 of pixels in the longitudinal direction, and determines the lateral size of the imaging plate 10 based on the number N2 of pixels in the lateral direction.
ここで、本例では、センサ41の検出範囲R110において一辺がMmmの正方形の領域が、取得全体像及び二値化像500の1画素に相当する。Mmmは例えば0.03mm程度である。画像処理部81は、Mmmに対して長手方向の画素数N1を掛け合わせて得られる長さを、イメージングプレート10の長手サイズとする。また、画像処理部81は、Mmmに対して短手方向の画素数N2を掛け合わせて得られる長さを、イメージングプレート10の短手サイズとする。以後、イメージングプレート10について画像処理部81が求めた長手サイズ及び短手サイズをそれぞれ特定長手サイズ及び特定短手サイズと呼ぶことがある。
Here, in this example, a square area with one side of Mmm in the detection range R110 of the sensor 41 corresponds to one pixel of the obtained entire image and the binarized image 500. Mmm is, for example, about 0.03 mm. The image processing unit 81 determines the length obtained by multiplying Mmm by the number of pixels in the longitudinal direction N1 as the longitudinal size of the imaging plate 10. Further, the image processing unit 81 sets the length obtained by multiplying Mmm by the number of pixels in the transverse direction N2 as the transverse size of the imaging plate 10. Hereinafter, the longitudinal size and transverse size determined by the image processing unit 81 for the imaging plate 10 may be referred to as a specific longitudinal size and a specific transverse size, respectively.
画像処理部81は、サイズ特定処理において、イメージングプレート10の主面の面積(主面面積ともいう)を数値で特定してもよい。この場合、画像処理部81は、高輝度領域501を構成する複数の画素の総数に対して、Mmmの二乗を掛け合わせて得られる値を、イメージングプレート10の主面面積としてもよい。主面面積は、イメージングプレート10の前面の面積であるともいえるし、イメージングプレート10の裏面の面積であるともいえる。以後、イメージングプレート10について画像処理部81が求めた主面面積を特定主面面積あるいは特定面積と呼ぶことがある。
In the size identification process, the image processing unit 81 may numerically specify the area of the main surface (also referred to as main surface area) of the imaging plate 10. In this case, the image processing unit 81 may set the main surface area of the imaging plate 10 to a value obtained by multiplying the total number of pixels constituting the high brightness region 501 by the square of Mmm. The main surface area can be said to be the area of the front surface of the imaging plate 10, or it can be said to be the area of the back surface of the imaging plate 10. Hereinafter, the main surface area of the imaging plate 10 determined by the image processing unit 81 may be referred to as a specific main surface area or a specific area.
画像処理部81は、サイズ特定処理において、イメージングプレート10のサイズの種類を特定してもよい。本例では、イメージングプレート10のサイズとして複数種類のサイズが用意されている。読取装置1において、保持部20は、複数種類のサイズのイメージングプレート10のそれぞれを保持することが可能である。そして、読取装置1は、複数種類のサイズのイメージングプレート10のそれぞれから放射線像を読み取ることができる。
The image processing unit 81 may specify the type of size of the imaging plate 10 in the size specification process. In this example, a plurality of sizes of the imaging plate 10 are prepared. In the reading device 1, the holding unit 20 can hold each of the imaging plates 10 of a plurality of sizes. The reading device 1 can read radiation images from each of the imaging plates 10 of a plurality of sizes.
図24はイメージングプレート10のサイズの種類(IPサイズの種類ともいう)の一例を示す図である。IPサイズの種類として、例えば、サイズ0、サイズ1、サイズ2及びサイズ3の4種類が用意されている。ここで、各種類のサイズでのイメージングプレート10の短手サイズ及び長手サイズをそれぞれ公称短手サイズ及び公称長手サイズと呼ぶ。多くの製造主体が共通に採用するサイズ及び/または公的規格で定まるサイズを公称短手サイズ及び公称長手サイズとして採用してもよい。
FIG. 24 is a diagram showing an example of the size types (also referred to as IP size types) of the imaging plate 10. For example, four types of IP sizes are prepared: size 0, size 1, size 2, and size 3. Here, the short side size and long side size of the imaging plate 10 in each type of size are called the nominal short side size and the nominal long side size, respectively. A size commonly adopted by many manufacturing entities and/or a size determined by official standards may be adopted as the nominal short side size and the nominal long side size.
例えば、ISO(International Organization for Standardization)の規格によって、サイズ0の公称短手サイズ及び公称長手サイズは、それぞれ22mm及び31mmとなっている。サイズ0の公称短手サイズ及び公称長手サイズとしては、それぞれ21mm及び35mmもある。サイズ1の公称短手サイズ及び公称長手サイズは、それぞれ24mm及び40mmとなっている。サイズ2の公称短手サイズ及び公称長手サイズは、それぞれ31mm及び41mmとなっている。そして、サイズ3の公称手サイズ及び公称長手サイズは、それぞれ27mm及び54mmとなっている。なお、公称短手サイズと公称長手サイズを掛け合わせて得られる値を公称主面面積あるいは公称面積と呼ぶ。
For example, according to the standards of the International Organization for Standardization (ISO), the nominal short side size and nominal long side size of size 0 are 22 mm and 31 mm, respectively. The nominal short side size and nominal long side size of size 0 are 21 mm and 35 mm, respectively. The nominal short side size and nominal long side size of size 1 are 24 mm and 40 mm, respectively. The nominal short side size and nominal long side size of size 2 are 31 mm and 41 mm, respectively. The nominal hand size and nominal longitudinal size of size 3 are 27 mm and 54 mm, respectively. Note that the value obtained by multiplying the nominal short side size and the nominal long side size is called the nominal main surface area or the nominal area.
画像処理部81は、例えば、イメージングプレート10の特定短手サイズ、特定長手サイズ及ぶ特定主面面積に基づいて、当該イメージングプレート10のサイズの種類を特定する。例えば、画像処理部81は、特定短手サイズがサイズ0の公称短手サイズと近く、特定長手サイズがサイズ0の公称長手サイズと近く、特定面積がサイズ0の公称面積と近い場合、IPサイズの種類がサイズ0であると判定する。
The image processing unit 81 specifies the type of size of the imaging plate 10 based on, for example, the specific transverse size, specific longitudinal size, and specific principal surface area of the imaging plate 10 . For example, if the specific short side size is close to the nominal short side size of size 0, the specific long side size is close to the nominal long side size of size 0, and the specific area is close to the nominal area of size 0, the image processing unit 81 It is determined that the type is size 0.
画像処理部81は、例えば、サイズ0の公称短手サイズよりも少し小さい第1しきい値と、サイズ0の公称短手サイズよりも少し大きい第2しきい値とを用いて、特定短手サイズがサイズ0の公称短手サイズと近いか否かを判定する。例えば、画像処理部81は、特定短手サイズが、第1しきい値よりも大きくかつ第2しきい値よりも小さい場合、特定短手サイズがサイズ0の公称短手サイズと近いと判定する。
The image processing unit 81 uses, for example, a first threshold value that is slightly smaller than the nominal width size of size 0, and a second threshold value that is slightly larger than the nominal width size of size 0, to determine the specific width size. It is determined whether the size is close to the nominal width size of size 0. For example, if the specific transverse size is larger than the first threshold and smaller than the second threshold, the image processing unit 81 determines that the specific transverse size is close to the nominal transverse size of size 0. .
また、画像処理部81は、例えば、サイズ0の公称長手サイズよりも少し小さい第3しきい値と、サイズ0の公称長手サイズよりも少し大きい第4しきい値とを用いて、特定長手サイズがサイズ0の公称長手サイズと近いか否かを判定する。例えば、画像処理部81は、特定長手サイズが、第3しきい値よりも大きくかつ第4しきい値よりも小さい場合、特定長手サイズがサイズ0の公称長手サイズと近いと判定する。
The image processing unit 81 also uses, for example, a third threshold value that is slightly smaller than the nominal longitudinal size of size 0, and a fourth threshold value that is slightly larger than the nominal longitudinal size of size 0, to determine the specific longitudinal size. It is determined whether or not the size is close to the nominal longitudinal size of size 0. For example, if the specific longitudinal size is larger than the third threshold and smaller than the fourth threshold, the image processing unit 81 determines that the specific longitudinal size is close to the nominal longitudinal size of size 0.
また、画像処理部81は、例えば、サイズ0の公称面積よりも少し小さい第5しきい値と、サイズ0の公称面積よりも少し大きい第6しきい値とを用いて、特定面積がサイズ0の公称面積と近いか否かを判定する。例えば、画像処理部81は、特定面積が、第5しきい値よりも大きくかつ第6しきい値よりも小さい場合、特定面積がサイズ0の公称面積と近いと判定する。
Further, the image processing unit 81 uses, for example, a fifth threshold value that is slightly smaller than the nominal area of size 0, and a sixth threshold value that is slightly larger than the nominal area of size 0, so that the specific area is of size 0. Determine whether the area is close to the nominal area. For example, if the specific area is larger than the fifth threshold and smaller than the sixth threshold, the image processing unit 81 determines that the specific area is close to the nominal area of size 0.
同様に、画像処理部81は、例えば、特定短手サイズがサイズ1の公称短手サイズと近く、特定長手サイズがサイズ1の公称長手サイズと近く、特定主面面積がサイズ1の公称主面面積と近い場合、IPサイズの種類がサイズ1であると判定する。
Similarly, the image processing unit 81 determines, for example, that the specific transverse size is close to the nominal transverse size of size 1, the specific longitudinal size is close to the nominal longitudinal size of size 1, and the specific principal surface area is the nominal principal surface of size 1. If it is close to the area, it is determined that the IP size type is size 1.
同様に、画像処理部81は、例えば、特定短手サイズがサイズ2の公称短手サイズと近く、特定長手サイズがサイズ2の公称長手サイズと近く、特定主面面積がサイズ2の公称主面面積と近い場合、IPサイズの種類がサイズ2であると判定する。
Similarly, the image processing unit 81 determines that the IP size type is size 2, for example, if the specific short side size is close to the nominal short side size of size 2, the specific long side size is close to the nominal long side size of size 2, and the specific main surface area is close to the nominal main surface area of size 2.
同様に、画像処理部81は、例えば、特定短手サイズがサイズ3の公称短手サイズと近く、特定長手サイズがサイズ3の公称長手サイズと近く、特定主面面積がサイズ3の公称主面面積と近い場合、IPサイズの種類がサイズ3であると判定する。
Similarly, the image processing unit 81 may be configured such that, for example, the specific transverse size is close to the nominal transverse size of size 3, the specific longitudinal size is close to the nominal longitudinal size of size 3, and the specific principal surface area is the nominal principal surface of size 3. If it is close to the area, it is determined that the IP size type is size 3.
以上のようなサイズ特定処理は、上述の図18に示される一連の処理の中で実行されてもよいし、図18に示される処理とは別のタイミングで実行されてもよい。また、表示部3は、例えば、画像処理部81が特定した短手サイズ、長手サイズ、主面面積及びIPサイズの種類の少なくとも一つを表示してもよい。この場合、表示部3は、短手サイズ、長手サイズ、主面面積及びIPサイズの種類の少なくとも一つを、例えば上述のステップs7において取得全体像と同時に表示してもよいし、取得全体像を表示しないときに表示してもよい。また、表示部3は、短手サイズ、長手サイズ、主面面積及びIPサイズの種類の少なくとも一つを、IP傾き角度と同時に表示してもよいし、IP傾き角度を表示しないときに表示してもよい。また、表示部3は、短手サイズ、長手サイズ、主面面積及びIPサイズの種類の少なくとも二つを同時に表示してもよい。
The size specification process as described above may be executed in the series of processes shown in FIG. 18, or may be executed at a different timing from the process shown in FIG. 18. The display unit 3 may display, for example, at least one of the types of short side size, long side size, main surface area, and IP size specified by the image processing unit 81. In this case, the display unit 3 may display at least one of the types of short side size, long side size, main surface area, and IP size simultaneously with the overall image acquired in step s7, or when the overall image acquired is not displayed. The display unit 3 may display at least one of the types of short side size, long side size, main surface area, and IP size simultaneously with the IP inclination angle, or when the IP inclination angle is not displayed. The display unit 3 may display at least two of the types of short side size, long side size, main surface area, and IP size simultaneously.
このように、本例では、画像処理部81は、イメージングプレート10からの発光光L2及び反射光の検出結果としての画像信号に基づいてIPサイズを特定していることから、IP傾き角度を特定する場合と同様に、IPサイズを適切に特定することができる。上記のように、イメージングプレート10に未露光部分が含まれる場合であっても、二値化像500の高輝度領域501が、反転前全体像のIP相当部分に対応することから、画像処理部81は、イメージングプレート10の短手サイズ、長手サイズ及び主面面積とIPサイズの種類とを適切に特定することができる。
In this way, in this example, the image processing unit 81 specifies the IP size based on the image signal as the detection result of the emitted light L2 and reflected light from the imaging plate 10, and therefore specifies the IP tilt angle. The IP size can be appropriately specified in the same way as in the case of As described above, even if the imaging plate 10 includes an unexposed portion, the high brightness region 501 of the binarized image 500 corresponds to the IP equivalent portion of the entire image before inversion, so the image processing unit 81 can appropriately specify the short side size, long side size, main surface area, and type of IP size of the imaging plate 10.
公称短手サイズ及び公称長手サイズの説明に関連して、励起光照射範囲R120の設定例を説明する。図25は、サイズ0~3の各イメージングプレート10を模式的に示す図である。ここでは、イメージングプレート10を平面視したときのイメージングプレート10の4つの辺のある位置を上下左右で表す。保持部20は、例えば、複数サイズのイメージングプレート10に共通で使用される。保持部20は、例えば、図25に示されるように、イメージングプレート10の左右の2辺の一方が複数サイズの間で同じ線上に位置し、かつイメージングプレート10の上下の2辺の一方が複数サイズの間で同じ線上に位置するように、イメージングプレート10を保持する。
An example of setting the excitation light irradiation range R120 will be described in connection with the description of the nominal transverse size and the nominal longitudinal size. FIG. 25 is a diagram schematically showing each imaging plate 10 of sizes 0 to 3. Here, the positions of the four sides of the imaging plate 10 when the imaging plate 10 is viewed from above are expressed as top, bottom, left and right. For example, the holding section 20 is commonly used for imaging plates 10 of a plurality of sizes. For example, as shown in FIG. 25, the holding part 20 is such that one of the two left and right sides of the imaging plate 10 is located on the same line among the plural sizes, and one of the two upper and lower sides of the imaging plate 10 is located on the same line between the plural sizes. Hold the imaging plate 10 so that it is located on the same line between the sizes.
サイズ3のイメージングプレート10の長手サイズは、サイズ2のイメージングプレート10の長手サイズより大であるが、サイズ3のイメージングプレート10の短手サイズはサイズ2のイメージングプレート10の短手サイズより小である。このような複数サイズのイメージングプレート10のいずれにも適合できるよう、例えば、励起光照射範囲R120の長手サイズが複数のIPサイズの長手サイズのうちの最大以上となり、励起光照射範囲R120の短手サイズが複数のIPサイズの短手サイズのうちの最大以上となるように励起光照射範囲R120が設定される。このように設定された励起光照射範囲R120をイメージングプレート10のIPサイズに関係なく、複数のIPサイズのうちのどのサイズのイメージングプレート10にも用いるようにしてよい。
The longitudinal size of the size 3 imaging plate 10 is larger than the longitudinal size of the size 2 imaging plate 10, but the lateral size of the size 3 imaging plate 10 is smaller than the lateral size of the size 2 imaging plate 10. be. In order to be compatible with any of the plurality of sizes of imaging plates 10, for example, the longitudinal size of the excitation light irradiation range R120 is greater than or equal to the maximum of the longitudinal sizes of the plurality of IP sizes, and the short side of the excitation light irradiation range R120 is The excitation light irradiation range R120 is set so that the size is greater than or equal to the maximum of the widthwise sizes of the plurality of IP sizes. The excitation light irradiation range R120 set in this manner may be used for any size imaging plate 10 among a plurality of IP sizes, regardless of the IP size of the imaging plate 10.
また、イメージングプレート10ごとに励起光照射範囲R120を変更するようにしてもよい。この場合、少なくとも、励起光照射範囲R120の長手サイズが複数のIPサイズの長手サイズのうちの最大以上となり、励起光照射範囲R120の短手サイズが複数のIPサイズの短手サイズのうちの最大以上となるように、励起光照射範囲R120を設定してもよい。
Further, the excitation light irradiation range R120 may be changed for each imaging plate 10. In this case, at least the longitudinal size of the excitation light irradiation range R120 is greater than or equal to the maximum of the longitudinal sizes of the plurality of IP sizes, and the transverse size of the excitation light irradiation range R120 is the largest of the transverse sizes of the plurality of IP sizes. The excitation light irradiation range R120 may be set as described above.
図26は、画像処理部81がIP傾き角度及びIPサイズを特定する場合の当該画像処理部81の一連の動作の一例を示すフローチャートである。図26に示される一連の処理は、上述の図18に示される一連の処理の中で実行されてもよいし、図18に示される処理とは別のタイミングで実行されてもよい。
Figure 26 is a flowchart showing an example of a series of operations of the image processing unit 81 when the image processing unit 81 identifies the IP tilt angle and IP size. The series of processes shown in Figure 26 may be executed as part of the series of processes shown in Figure 18 described above, or may be executed at a different timing from the processes shown in Figure 18.
図26に示されるように、ステップs11において、画像処理部81は、反転前の画像信号に基づく反転前全体像を二値化して二値化像500を生成する。次にステップs12において、画像処理部81は、上述のように、二値化像500に基づいてイメージングプレート10の主面面積を特定する。次にステップs13において、画像処理部81は、二値化像500に含まれる高輝度領域501を構成する複数の画素の位置を分析対象データとして主成分分析を行って、分析対象データについての第1主成分軸及び第2主成分軸を求める。
As shown in FIG. 26, in step s11, the image processing unit 81 generates a binarized image 500 by binarizing the entire image before inversion based on the image signal before inversion. Next, in step s12, the image processing unit 81 specifies the main surface area of the imaging plate 10 based on the binarized image 500, as described above. Next, in step s13, the image processing unit 81 performs principal component analysis using the positions of the plurality of pixels constituting the high-intensity region 501 included in the binarized image 500 as data to be analyzed. Find the first principal component axis and the second principal component axis.
次にステップs14において、画像処理部81は、上述のように、二値化像500、第1主成分軸及び第2主成分軸に基づいて、IP傾き角度と、イメージングプレート10の短手サイズ及び長手サイズを特定する。次にステップs15において、画像処理部81は、特定短手サイズ、特定長手サイズ及び特定面積に基づいて、IPサイズの種類がサイズ3であるか否かを判定する。ステップs15では、画像処理部81は、例えば、上述のように、特定短手サイズがサイズ3の公称短手サイズと近く、特定長手サイズがサイズ3の公称長手サイズと近く、特定面積がサイズ3の公称面積と近い場合、IPサイズの種類がサイズ3であると判定する。
Next, in step s14, the image processing unit 81 determines the IP tilt angle and the short-side size and long-side size of the imaging plate 10 based on the binarized image 500, the first principal component axis, and the second principal component axis, as described above. Next, in step s15, the image processing unit 81 determines whether the IP size type is size 3 or not based on the specific short-side size, specific long-side size, and specific area. In step s15, the image processing unit 81 determines that the IP size type is size 3, for example, as described above, if the specific short-side size is close to the nominal short-side size of size 3, the specific long-side size is close to the nominal long-side size of size 3, and the specific area is close to the nominal area of size 3.
ステップs15においてYESと判定されると、図26に示される処理が終了する。一方で、ステップs15においてNOと判定されると、ステップs16が実行される。ステップs16において、画像処理部81は、特定短手サイズ、特定長手サイズ及び特定面積に基づいて、IPサイズの種類がサイズ2であるか否かを判定する。ステップs16では、画像処理部81は、例えば、上述のように、特定短手サイズがサイズ2の公称短手サイズと近く、特定長手サイズがサイズ2の公称長手サイズと近く、特定面積がサイズ2の公称面積と近い場合、IPサイズの種類がサイズ2であると判定する。
If the determination in step s15 is YES, the process shown in FIG. 26 ends. On the other hand, if the determination in step s15 is NO, step s16 is executed. In step s16, the image processing unit 81 determines whether the IP size type is size 2 based on the specific transverse size, the specific longitudinal size, and the specific area. In step s16, the image processing unit 81 determines, for example, that the specific short side size is close to the nominal short side size of size 2, the specific long side size is close to the nominal long side size of size 2, and the specific area is close to the nominal long side size of size 2, as described above. If the area is close to the nominal area of , it is determined that the IP size type is size 2.
ステップs16においてYESと判定されると、図26に示される処理が終了する。一方で、ステップs16においてNOと判定されると、ステップs17が実行される。ステップs17において、画像処理部81は、特定短手サイズ、特定長手サイズ及び特定面積に基づいて、IPサイズの種類がサイズ1であるか否かを判定する。ステップs17では、画像処理部81は、例えば、上述のように、特定短手サイズがサイズ1の公称短手サイズと近く、特定長手サイズがサイズ1の公称長手サイズと近く、特定面積がサイズ1の公称面積と近い場合、IPサイズの種類がサイズ1であると判定する。
If YES is determined in step s16, the process shown in FIG. 26 ends. On the other hand, if the determination in step s16 is NO, step s17 is executed. In step s17, the image processing unit 81 determines whether the IP size type is size 1 based on the specific transverse size, the specific longitudinal size, and the specific area. In step s17, the image processing unit 81 determines, for example, that the specific short side size is close to the nominal short side size of size 1, the specific long side size is close to the nominal long side size of size 1, and the specific area is close to the nominal long side size of size 1, as described above. If the size is close to the nominal area of , it is determined that the IP size type is size 1.
ステップs17においてYESと判定されると、図26に示される処理が終了する。一方で、ステップs17においてNOと判定されると、ステップs18が実行される。ステップs18において、画像処理部81は、IPサイズの種類がサイズ0であると判定する。ステップs18の実行後、図26に示される処理が終了する。なお、ステップs18において、画像処理部81は、ステップs15~s17と同様に、特定短手サイズ、特定長手サイズ及び特定面積に基づいて、IPサイズの種類がサイズ0であるか否かを判定してもよい。
If the determination in step s17 is YES, the process shown in FIG. 26 ends. On the other hand, if the determination in step s17 is NO, step s18 is executed. In step s18, the image processing unit 81 determines that the IP size type is size 0. After executing step s18, the process shown in FIG. 26 ends. Note that in step s18, the image processing unit 81 determines whether the type of IP size is size 0 based on the specific transverse size, specific longitudinal size, and specific area, as in steps s15 to s17. It's okay.
上記の例では、画像処理部81は、特定短手サイズ、特定長手サイズ及び特定面積に基づいてIPサイズの種類を特定しているが、特定短手サイズ、特定長手サイズ及び特定面積のいずれか一つに基づいて、IPサイズの種類を特定することも可能である。図24に示されるように、本例では、複数種類のサイズの間では、公称短手サイズは互いに異なり、公称長手サイズも互いに異なる。また、複数種類のサイズの間では、公称面積も互いに異なる。画像処理部81は、サイズ0~3のうち、特定短手サイズに最も近い公称短手サイズを有する種類を、イメージングプレート10のサイズの種類としてもよい。また、画像処理部81は、サイズ0~3のうち、特定長手サイズに最も近い公称長手サイズを有する種類を、イメージングプレート10のサイズの種類としてもよい。また、画像処理部81は、サイズ0~3のうち、特定面積に最も近い公称面積を有する種類を、イメージングプレート10のサイズの種類としてもよい。
In the above example, the image processing unit 81 specifies the type of IP size based on the specific short side size, specific long side size, and specific area. It is also possible to specify the type of IP size based on one. As shown in FIG. 24, in this example, among the plurality of sizes, the nominal transverse sizes are different from each other, and the nominal longitudinal sizes are also different from each other. Moreover, the nominal area also differs among the plurality of sizes. The image processing unit 81 may select the size type of the imaging plate 10 from sizes 0 to 3, which has the nominal transverse size closest to the specific transverse size. Further, the image processing unit 81 may set the type having the nominal longitudinal size closest to the specific longitudinal size among the sizes 0 to 3 as the size type of the imaging plate 10. Further, the image processing unit 81 may select the size type of the imaging plate 10 from among sizes 0 to 3, which has a nominal area closest to the specific area.
また、画像処理部81は、特定短手サイズ、特定長手サイズ及び特定面積のいずれか二つに基づいてIPサイズの種類を特定してもよい。例えば、画像処理部81は、特定短手サイズがサイズ1の公称短手サイズと近く、特定長手サイズがサイズ1の公称長手サイズと近い場合、IPサイズの種類がサイズ1であると判定してもよい。
Further, the image processing unit 81 may specify the type of IP size based on any two of a specific transverse size, a specific longitudinal size, and a specific area. For example, if the specific transverse size is close to the nominal transverse size of size 1 and the specific longitudinal size is close to the nominal longitudinal size of size 1, the image processing unit 81 determines that the IP size type is size 1. Good too.
なお、サイズ特定処理では、イメージングプレート10の長手サイズが特定されなくてもよいし、イメージングプレート10の短手サイズが特定されなくてもよいし、イメージングプレート10の主面面積が特定されなくてもよい。また、サイズ特定処理では、イメージングプレート10のサイズの種類が特定されなくてもよい。
In addition, in the size identification process, the longitudinal size of the imaging plate 10 does not need to be specified, the short side size of the imaging plate 10 does not need to be specified, and the main surface area of the imaging plate 10 does not need to be specified. Good too. Further, in the size specifying process, the type of size of the imaging plate 10 does not need to be specified.
読取装置1は、画像処理部81がIPサイズを特定する構成に加えて、あるいは当該構成に代えて、ユーザがIPサイズを選択特定できる構成を備えてもよい。また、読取装置1は、画像処理部81がIPサイズを特定する構成と、ユーザがIPサイズを選択特定する構成との切り換えができるように構成されてもよい。この場合、例えば、ステップs13及びs14の間にユーザによる選択を受け付けるか否かの分岐が入り、YESであればユーザによる選択受付が実行され、その後、画像処理部81はIP傾き角度の特定を行い、IPサイズの特定は行わない。
In addition to or instead of the configuration in which the image processing unit 81 specifies the IP size, the reading device 1 may include a configuration in which the user can select and specify the IP size. Further, the reading device 1 may be configured to be able to switch between a configuration in which the image processing unit 81 specifies the IP size and a configuration in which the user selects and specifies the IP size. In this case, for example, there is a branch between steps s13 and s14 to determine whether or not to accept the user's selection, and if YES, the user's selection is accepted, and then the image processing unit 81 specifies the IP tilt angle. IP size is not specified.
<消去済みイメージングプレートに対する励起光の照射>
読取装置1では、消去済みイメージングプレート10に対して光源30が励起光L10を照射し、検出器40が、消去済みイメージングプレート10からの反射光L40を検出して、イメージングプレート10が写る反射光像を取得してもよい。この場合、本例では、検出器40は、照射範囲内IP像領域外領域R130からの反射光L400も検出する。本例では、検出器40は、消去済みイメージングプレート10及び照射範囲内IP像領域外領域R130からの励起光L10の反射光を検出し、その検出結果としての画像信号を出力する。以下に、消去済みイメージングプレート10に対して励起光L10を照射する読取装置1の動作例について説明する。
<Irradiation of excitation light onto the erased imaging plate>
In the reading device 1, the light source 30 irradiates the erased imaging plate 10 with excitation light L10, the detector 40 detects the reflected light L40 from the erased imaging plate 10, and the reflected light in which the imaging plate 10 is captured is detected. You may also obtain an image. In this case, in this example, the detector 40 also detects the reflected light L400 from the area R130 outside the IP image area within the irradiation range. In this example, the detector 40 detects the reflected light of the excitation light L10 from the erased imaging plate 10 and the region R130 outside the IP image area within the irradiation range, and outputs an image signal as the detection result. An example of the operation of the reading device 1 that irradiates the erased imaging plate 10 with the excitation light L10 will be described below.
以後、今まで説明してきた画像信号のように、放射線像を記録するイメージングプレート10が保持されている場合の輝尽光L5または輝尽光L5及び反射光(被励起領域光L20)の検出結果としての画像信号を発光時画像信号と呼ぶ。また、今まで説明してきた取得全体像のように、放射線像を含む全体の像、つまり発光時画像信号に基づく全体の像を、発光時全体像と呼ぶ。発光時全体像は生体放射線撮影画像の一例である。また、上述の反転前全体像及び反転後全体像を、反転前発光時全体像及び反転後発光時全体像とそれぞれ呼ぶ。
Hereinafter, like the image signals described so far, the detection results of the stimulated light L5 or the stimulated light L5 and reflected light (excited region light L20) when the imaging plate 10 for recording a radiation image is held. The image signal as shown in FIG. Furthermore, like the acquired overall image described above, the entire image including the radiation image, that is, the entire image based on the image signal at the time of light emission, is referred to as the entire image at the time of light emission. The overall image at the time of light emission is an example of a biological radiographic image. Further, the above-mentioned whole image before inversion and whole image after inversion are respectively referred to as the whole image at the time of light emission before inversion and the whole image at the time of light emission after inversion.
なお、発光時画像信号、発光時全体像、反転前発光時全体像及び反転後発光時全体像において、イメージングプレート10の像すなわちIP像を示す部分を、発光時IP画像信号、発光時IP像、反転前発光時IP像及び反転後発光時IP像とそれぞれ呼んでもよい。発光時IP像はIP生体放射線撮影画像の一例である。イメージングプレート10にコーンカットが含まれる場合、発光時IP像は、IP被励起領域光像とIP反射光像(言い換えればIP非輝尽性反射光像)とで構成される。ステップs2を実行するときのように、放射線像の読取目的で保持されているイメージングプレート10に励起光L1が照射されたとき、すなわち放射線像を読み取る読取モードのときの検出結果(生体放射線撮影画像取得)としての画像信号として発光時画像信号を定義してもよい。この場合、コーンカットがイメージングプレート10の全域に及ぶとき、発光時IP像(IP生体放射線撮影画像)がIP反射光像(言い換えればIP非輝尽性反射光像)のみで構成される。
In addition, in the image signal at the time of light emission, the entire image at the time of light emission, the whole image at the time of light emission before reversal, and the whole image at the time of light emission after reversal, the part showing the image of the imaging plate 10, that is, the IP image, is referred to as the IP image signal at the time of light emission, the IP image at the time of light emission. , may be respectively referred to as an IP image at the time of light emission before inversion and an IP image at the time of light emission after inversion. The IP image at the time of light emission is an example of an IP biological radiography image. When the imaging plate 10 includes a cone cut, the IP image at the time of light emission is composed of an IP excited region light image and an IP reflected light image (in other words, an IP non-stimulable reflected light image). When the excitation light L1 is irradiated to the imaging plate 10 held for the purpose of reading a radiation image, as in the case of executing step s2, that is, the detection result in the reading mode for reading a radiation image (a biological radiographic image An image signal at the time of light emission may be defined as an image signal obtained as an image signal (obtained). In this case, when the cone cut extends over the entire area of the imaging plate 10, the IP image at the time of emission (IP biological radiography image) is composed only of the IP reflected light image (in other words, the IP non-stimulable reflected light image).
また、消去済みイメージングプレート10が保持されている場合の光の反射光の検出結果としての画像信号を消去時画像信号と呼ぶ。また、消去時画像信号に基づく全体の像を消去時全体像と呼ぶ。本例では、消去時全体像には、イメージングプレート10の反射光像、つまりイメージングプレート10での励起光L10の反射光L40の検出に基づく反射光像だけではなく、IP像領域外領域像も含まれ、放射線像は含まれない。消去時全体像は、センサ41の検出範囲R110の反射光像であるともいえる。消去済みイメージングプレート10の反射光像、つまりイメージングプレート10全体の像を示すIP反射光像を特にIP全体反射光像と呼ぶことがある。また、以後、検出器40が光の検出結果として出力する画像信号に基づく全体の像を取得全体像として読取装置1を説明する。以下の説明では、取得全体像は、発光時全体像及び消去時全体像を含む概念である。
Further, an image signal as a result of detection of reflected light when the erased imaging plate 10 is held is called an erased image signal. Further, the entire image based on the image signal at the time of erasure is referred to as the entire image at the time of erasure. In this example, the entire image at the time of erasing includes not only the reflected light image of the imaging plate 10, that is, the reflected light image based on the detection of the reflected light L40 of the excitation light L10 on the imaging plate 10, but also the area image outside the IP image area. radiological images are not included. It can be said that the entire image at the time of erasing is a reflected light image of the detection range R110 of the sensor 41. The reflected light image of the erased imaging plate 10, that is, the IP reflected light image showing the image of the entire imaging plate 10, is sometimes particularly referred to as the entire IP reflected light image. Further, hereinafter, the reading device 1 will be described assuming that the entire image based on the image signal outputted by the detector 40 as a light detection result is an acquired overall image. In the following description, the acquired overall image is a concept that includes the entire image during emission and the entire image during erasure.
図27は本例の読取装置1の動作の一例を示すフローチャートである。操作部4に含まれるスタートボタンが操作されると、図27に示されるように、読取装置1は上述のステップs1~s4を実行する。ステップs2の読取処理では、検出器40は、発光光L2及び反射光の検出結果としての発光時画像信号を出力する。
FIG. 27 is a flowchart showing an example of the operation of the reading device 1 of this example. When the start button included in the operation unit 4 is operated, the reading device 1 executes steps s1 to s4 described above, as shown in FIG. 27. In the reading process of step s2, the detector 40 outputs a light emission image signal as a detection result of the light emission light L2 and the reflected light.
ステップs4の消去処理の後、ステップs21において、駆動部50が、消去済みイメージングプレート10を保持する保持部20を読取開始位置に移動する。次にステップs22が実行される。ステップs22では、光源30が消去済みイメージングプレート10の前面及びIP像領域外領域に対して励起光L10を照射する。そして、検出器40が、消去済みイメージングプレート10の前面及びIP像領域外領域からの励起光L10の反射光を検出し、その検出結果としての消去時画像信号を出力する。消去時画像信号は、例えば、発光時画像信号と同様にグレースケールの画像信号である。
After the erasing process in step s4, in step s21, the drive unit 50 moves the holding unit 20 that holds the erased imaging plate 10 to the reading start position. Next, step s22 is executed. In step s22, the light source 30 irradiates the front surface of the erased imaging plate 10 and the area outside the IP image area with excitation light L10. Then, the detector 40 detects the reflected light of the excitation light L10 from the front surface of the erased imaging plate 10 and the area outside the IP image area, and outputs an image signal at the time of erasure as the detection result. The image signal at the time of erasure is, for example, a gray scale image signal like the image signal at the time of light emission.
ステップs22の後、上述のステップs5及びs6が実行されて、消去済みイメージングプレート10が筐体2の取出口2bに排出される。次にステップs27において、表示制御部82は、ステップs2で得られた発光時画像信号に基づく発光時全体像と、ステップs22で得られた消去時画像信号に基づく消去時全体像とを表示部3に同時にかつ別々に表示させる。ステップs27において、画像処理部81は、発光時全体像及び消去時全体像を例えばグレースケール表示する。
After step s22, steps s5 and s6 described above are executed, and the erased imaging plate 10 is ejected to the outlet 2b of the housing 2. Next, in step s27, the display control unit 82 displays the entire image at the time of light emission based on the image signal at the time of light emission obtained at step s2 and the entire image at the time of erasure based on the image signal at the time of erasure obtained at step s22. 3 simultaneously and separately. In step s27, the image processing unit 81 displays the entire image when emitting light and the entire image when erasing, for example, in gray scale.
なお、ステップs27は、ステップs22の後であれば、いつでも実行されてもよい。例えば、ステップs27はステップs22とステップs5の間に実行されてもよい。また、発光時全体像と消去時全体像とは同時に表示されてなくてもよい。また、ステップs27では、発光時全体像は表示されなくてもよい。上述のサイズ特定処理及び傾き角度特定処理の少なくとも一方は、図27の一連の処理の中で実行されてもよいし、図27の処理とは別のタイミングで実行されてもよい。
Note that step s27 may be executed at any time after step s22. For example, step s27 may be executed between step s22 and step s5. Furthermore, the entire image when emitting light and the entire image when erasing do not need to be displayed at the same time. Further, in step s27, the entire image may not be displayed at the time of light emission. At least one of the size specifying process and the tilt angle specifying process described above may be executed in the series of processes in FIG. 27, or may be executed at a timing different from the process in FIG. 27.
検出器40が出力する消去時画像信号には、IP全体反射光像(言い換えればIP像)を構成する複数の画素の輝度値と、IP像領域外領域像を構成する複数の画素の輝度値とが含まれる。消去時画像信号に含まれる輝度値は、検出器40が検出する反射光の強度が大きいほど大きい値を示す。したがって、例えば、消去済みイメージングプレート10のある領域での反射光の強度が大きい場合、消去時画像信号に含まれる、当該ある領域の反射光像の輝度は大きくなる。
The erasing image signal output by the detector 40 includes the brightness values of a plurality of pixels constituting the entire IP reflected light image (in other words, an IP image) and the brightness values of a plurality of pixels constituting an image of an area outside the IP image area. and is included. The brightness value included in the erasing image signal increases as the intensity of the reflected light detected by the detector 40 increases. Therefore, for example, when the intensity of the reflected light in a certain area of the erased imaging plate 10 is high, the brightness of the reflected light image of the certain area included in the erasing image signal becomes high.
図28は消去時全体像200の一例を示す概略図である。図28に示されるように、消去時全体像200には、IP全体反射光像201及びIP像領域外領域像202が含まれる。図28の例では、IP全体反射光像201には、イメージングプレート10の前面が写っている。IP全体反射光像201は、消去時全体像200でのイメージングプレート10に相当する部分であることから、IP全体反射光像をIP相当部分ともいう。IP全体反射光像201は、IP像でもあり、IP非輝尽性反射光像でもある。
FIG. 28 is a schematic diagram showing an example of the entire image 200 at the time of erasing. As shown in FIG. 28, the entire erase image 200 includes an IP overall reflected light image 201 and an image 202 of an area outside the IP image area. In the example of FIG. 28, the front surface of the imaging plate 10 is reflected in the IP total reflected light image 201. Since the entire IP reflected light image 201 is a portion corresponding to the imaging plate 10 in the entire image 200 at the time of erasing, the entire IP reflected light image is also referred to as the IP equivalent portion. The IP total reflection light image 201 is both an IP image and an IP non-stimulable reflection light image.
画像処理部81は、消去時画像信号に対して画像処理を行う。本例では、消去時画像信号に対する画像処理では、発光時画像信号に対する画像処理とは異なり、例えば輝度反転処理は行われない。したがって、画像処理後の消去時画像信号では、画像処理前の消去時画像信号と同様に、イメージングプレート10のある領域での反射光の強度が大きい場合、当該ある領域の反射光像の輝度値は大きくなる。一方で、イメージングプレート10のある領域での反射光の強度が小さい場合、当該ある領域の反射光像の輝度値は小さくなる。以後、輝度反転処理を含まない画像処理が行われた消去時画像信号に基づく消去時全体像200を、反転前消去時全体像200と呼ぶことがある。
The image processing unit 81 performs image processing on the erasing image signal. In this example, the image processing for the image signal at the time of erasure is different from the image processing for the image signal at the time of light emission, for example, brightness inversion processing is not performed. Therefore, in the erasing image signal after image processing, similarly to the erasing image signal before image processing, when the intensity of reflected light in a certain area of the imaging plate 10 is large, the brightness value of the reflected light image of the certain area becomes larger. On the other hand, when the intensity of the reflected light in a certain area of the imaging plate 10 is low, the brightness value of the reflected light image in the certain area becomes small. Hereinafter, the entire image at the time of erasure 200 based on the image signal at the time of erasure that has been subjected to image processing that does not include brightness inversion processing may be referred to as the entire image at the time of erasure before inversion 200.
なお、消去時画像信号に対する画像処理において輝度反転処理は行われてもよい。この場合、輝度反転処理を含む画像処理が行われた消去時画像信号に基づく消去時全体像を、反転後消去時全体像と呼んでもよい。消去時全体像には、反転前消去時全体像と反転後消去時全体像の両方が含まれてもよい。反転前消去時全体像200に代えて反転後消去時全体像が使用されてもよい。
Note that brightness inversion processing may be performed in the image processing for the erased image signal. In this case, the entire image at the time of erasure based on the image signal at the time of erasure that has been subjected to image processing including brightness inversion processing may be referred to as the entire image at the time of erasure after inversion. The entire image at the time of erasure may include both the entire image at the time of erasure before inversion and the entire image at the time of erasure after inversion. Instead of the entire image 200 before erasing and inversion, the entire image after erasing after inversion may be used.
消去時画像信号、消去時全体像、反転前消去時全体像及び反転後消去時全体像においてイメージングプレート10の像を示す部分を、消去時IP画像信号、消去時IP像、反転前消去時IP像及び反転後消去時IP像とそれぞれ呼んでもよい。
The part showing the image of the imaging plate 10 in the image signal at the time of erasure, the whole image at the time of erasure, the whole image at the time of erasure before inversion, and the whole image at the time of erasure after inversion is expressed as the IP image signal at the time of erasure, the IP image at the time of erasure, and the IP at the time of erasure before inversion. They may also be called an image and an IP image at the time of erasure after inversion, respectively.
ステップs27では、表示制御部82は、例えば、反転後発光時全体像100bと、反転前消去時全体像200とを表示部3にグレースケール表示させてもよい。この場合、表示部3は、上述の図16及び17に示されるようなグレースケールで反転後発光時全体像100bを表示し、上述の図28に示されるようなグレースケールで反転前消去時全体像200を表示してもよい。
In step s27, the display control unit 82 may, for example, cause the display unit 3 to display the entire image 100b at the time of light emission after inversion and the entire image 200 at the time of erasure before inversion on the display unit 3. In this case, the display section 3 displays the entire image 100b at the time of light emission after inversion in a gray scale as shown in FIGS. Image 200 may also be displayed.
図29及び30は、表示部3の表示面3aに、反転後発光時全体像100b及び反転前消去時全体像200が表示されている様子の一例を示す概略図である。図29には、イメージングプレート10に未露光部分が含まれない場合の反転後発光時全体像100b及び反転前消去時全体像200が示されている。図30には、イメージングプレート10に未露光部分が含まれる場合の反転後発光時全体像100b及び反転前消去時全体像200が示されている。
29 and 30 are schematic diagrams showing an example of how a post-reversal light emission overall image 100b and a pre-reversal erasure overall image 200 are displayed on the display surface 3a of the display unit 3. FIG. 29 shows an overall image 100b during light emission after inversion and an overall image 200 during erasure before inversion when the imaging plate 10 does not include an unexposed portion. FIG. 30 shows an overall image 100b during light emission after inversion and an overall image 200 during erasure before inversion when the imaging plate 10 includes an unexposed portion.
図29及び30に示されるように、表示部3は、反転後発光時全体像100b及び反転前消去時全体像200を、例えば、同じ大きさで表示してもよいし、横並びに表示してもよい。本例では、表示部3は、像の輝度値が大きいほど、その像を明るく表示することから、反転後発光時全体像100bでは、例えば、歯が写る部分(つまりIP被励起領域光像)及び未露光領域像(言い換えれば、IP反射光像あるいはIP非輝尽性反射光像)103bが明るく表示される。また、反転前消去時全体像200では、イメージングプレート10が写る部分が明るく表示される。
As shown in FIGS. 29 and 30, the display unit 3 may display the entire image 100b at the time of light emission after inversion and the entire image 200 at the time of erasing before inversion, for example, in the same size or side by side. Good too. In this example, the display section 3 displays the image brighter as the luminance value of the image is larger, so that in the entire image 100b during light emission after inversion, for example, a portion where teeth appear (that is, an IP excited region optical image) And the unexposed area image (in other words, the IP reflected light image or the IP non-stimulable reflected light image) 103b is displayed brightly. Furthermore, in the entire image 200 at the time of erasure before inversion, the portion where the imaging plate 10 is reflected is displayed brightly.
好ましくは、表示において、反転後発光時全体像100bの外縁に対して放射線像101bの外縁が占める位置と、反転前消去時全体像200の外縁に対してIP全体反射光像201の外縁が占める位置が対応するようにする。このように、生体放射線撮影画像の外縁に対して生体放射線撮影像の外縁が占める位置と、イメージングプレート形状画像の外縁に対してIPイメージングプレート形状画像の外縁が占める位置が対応するようにしてよい。生体放射線撮影画像の撮影位置とイメージングプレート形状画像の撮影位置を一致させることで画像処理上対応配置は容易となる。また、仮に両撮影位置に差があるとしても、差分を把握して計算することで画像処理上対応配置は可能である。
Preferably, in the display, the outer edge of the radiation image 101b occupies the outer edge of the entire image 100b during light emission after inversion, and the outer edge of the entire IP reflected light image 201 occupies the outer edge of the entire image 200 during erasure before inversion. Make sure the positions correspond. In this way, the position occupied by the outer edge of the living body radiographic image with respect to the outer edge of the living body radiographic image may correspond to the position occupied by the outer edge of the IP imaging plate shape image with respect to the outer edge of the imaging plate shape image. . By matching the photographing position of the biological radiographic image and the photographing position of the imaging plate shape image, corresponding arrangement in image processing becomes easy. Furthermore, even if there is a difference between the two photographing positions, it is possible to arrange them in a corresponding manner in image processing by understanding and calculating the difference.
また、反転後発光時全体像100bと並べて表示する反転前消去時全体像200に替えて、IP全体反射光像201のみを抽出して形成した画像、すなわちIPイメージングプレート形状画像を並べて表示するようにしてもよい。
In addition, instead of the entire image 200 before erasing before inversion that is displayed side by side with the entire image 100b during light emission after inversion, an image formed by extracting only the entire IP reflected light image 201, that is, an image of the shape of the IP imaging plate, is displayed side by side. You can also do this.
また、図29及び30に示されるように、イメージングプレート10に未露光部分が含まれる場合の反転前消去時全体像200と、イメージングプレート10に未露光部分が含まれない場合の反転前消去時全体像200とは同じとなる。ユーザは、表示部3に表示される反転前消去時全体像200(言い換えれば消去時全体像)から、イメージングプレート10の外観を確認することができる。なお、反転後発光時全体像100b及び反転前消去時全体像200の表示方法は図29及び30の例に限られない。
Further, as shown in FIGS. 29 and 30, the entire image 200 at the time of erasing before inversion when the imaging plate 10 includes an unexposed part, and the erasure before inversion when the imaging plate 10 does not include an unexposed part. The overall image 200 is the same. The user can check the external appearance of the imaging plate 10 from the entire image 200 at the time of erasure before inversion (in other words, the whole image at the time of erasure) displayed on the display unit 3 . Note that the method of displaying the entire image 100b at the time of light emission after inversion and the entire image 200 at the time of erasing before inversion is not limited to the examples shown in FIGS. 29 and 30.
上述の図27の例では、検出器40が、光源30からの励起光L10によって励起されたイメージングプレート10からの被励起領域光L20を検出し、その検出結果としての発光時画像信号を出力する。その後、イメージングプレート10から放射線像が消去された後、消去済みイメージングプレート10に対して光源30から励起光L10が照射され、検出器40は、イメージングプレート10からの励起光L10の反射光を検出する。これにより、読取装置1は、同じ光源30及び同じ検出器40を使用して、イメージングプレート10に記録された放射線像とイメージングプレート10の反射光像の両方を容易に得ることができる。
In the example of FIG. 27 described above, the detector 40 detects the excited region light L20 from the imaging plate 10 excited by the excitation light L10 from the light source 30, and outputs an image signal at the time of light emission as the detection result. . After that, after the radiation image is erased from the imaging plate 10, the excitation light L10 is irradiated from the light source 30 to the erased imaging plate 10, and the detector 40 detects the reflected light of the excitation light L10 from the imaging plate 10. do. Thereby, the reading device 1 can easily obtain both the radiation image recorded on the imaging plate 10 and the reflected light image of the imaging plate 10 using the same light source 30 and the same detector 40.
また、図29及び30の例のように、発光時全体像と消去時全体像とが同時にかつ別々に表示される場合には、ユーザは、発光時全体像と消去時全体像とを見比べやすくなる。つまり、ユーザは、イメージングプレート10から読み取られた放射線像と、イメージングプレート10の外観とを見比べやすくなる。これにより、例えば、ユーザは、イメージングプレート10に未露光部分が含まれていることを容易に特定することができる。以下にこの点について説明する。
Furthermore, as in the examples of FIGS. 29 and 30, when the entire image when emitting light and the entire image when erasing are displayed simultaneously and separately, the user can easily compare the entire image when emitting light and the entire image when erasing. Become. That is, the user can easily compare the radiation image read from the imaging plate 10 and the appearance of the imaging plate 10. Thereby, for example, the user can easily specify that the imaging plate 10 includes an unexposed portion. This point will be explained below.
イメージングプレート10に未露光部分が含まれる場合、発光時全体像のうち当該未露光部分に相当する領域には放射線像が存在しない。しかしながら、ユーザは、当該領域には本来は放射線像が存在し、読取装置1の不具合のために当該領域に放射線像が存在しないのか、イメージングプレート10に未露光部分が含まれているために当該領域に放射線像が存在しないのか、発光時全体像の表示だけでは特定することが難しい。これに対して、図30の例のように、発光時全体像及び消去時全体像が同時にかつ別々に表示される場合には、ユーザは、発光時全体像の表示から、イメージングプレート10から読み取られた放射線像を確認し、消去時全体像の表示からイメージングプレート10外観を確認し、両者を比較することによって、イメージングプレート10に未露光部分が含まれていることを容易に特定することができる。また、ユーザは、イメージングプレート10での未露光部分の範囲も容易に特定することができる。
When the imaging plate 10 includes an unexposed portion, no radiation image exists in a region corresponding to the unexposed portion in the entire image at the time of light emission. However, the user may wonder whether a radiographic image originally exists in the region, and no radiation image exists in the region due to a malfunction in the reading device 1, or because the imaging plate 10 includes an unexposed portion. It is difficult to determine whether a radiation image does not exist in a region just by displaying the entire image during light emission. On the other hand, when the entire image during emission and the entire image during erasure are displayed simultaneously and separately as in the example of FIG. It is possible to easily identify that the imaging plate 10 includes an unexposed portion by checking the radiation image obtained, checking the appearance of the imaging plate 10 from the display of the entire image at the time of erasing, and comparing the two. can. Furthermore, the user can easily specify the range of the unexposed portion of the imaging plate 10.
上記の例では、画像処理部81は、発光時全体像に基づいてIP傾き角度を特定しているが、消去時全体像(言い換えれば、消去時画像信号に基づく反射光像)に基づいてIP傾き角度を特定してもよい。同様に、画像処理部81は、IPサイズを消去時全体像に基づいて特定してもよい。
In the above example, the image processing unit 81 specifies the IP inclination angle based on the entire image at the time of light emission, but the image processing unit 81 specifies the IP inclination angle based on the entire image at the time of erasure (in other words, the reflected light image based on the image signal at the time of erasure). The tilt angle may also be specified. Similarly, the image processing unit 81 may specify the IP size based on the entire image at the time of deletion.
また、図29及び30の例のような発光時全体像と消去時全体像とが同時にかつ別々に表示される構成例を変形して、消去時全体像を図21の二値化像500のような像に替え、発光時全体像と、発光時全体像を二値化した像とが同時にかつ別々に表示される構成にしてもよい。
In addition, by modifying the configuration example in which the entire image during emission and the entire image during erasure are displayed simultaneously and separately, such as the examples in FIGS. Instead of such an image, a configuration may be adopted in which an entire image during light emission and an image obtained by binarizing the entire image during light emission are displayed simultaneously and separately.
画像処理部81は、発光時全体像に基づいてIP傾き角度及びIPサイズを特定する場合と同様にして、消去時全体像に基づいてIP傾き角度及びIPサイズを特定することができる。具体的には、画像処理部81は、例えば反転前消去時全体像200を二値化して二値化像を生成する。この二値化像を第2の二値化像と呼ぶことがある。反転前消去時全体像200を二値化した二値化像もイメージングプレート形状放射線像の一例である。反転前消去時全体像200を二値化するときのしきい値は、例えば、反転前消去時全体像200に含まれるIP像領域外領域像202の輝度値よりも大きく、かつ反転前消去時全体像200に含まれるIP像であるIP全体反射光像201の輝度値よりも小さく設定される。これにより、第2の二値化像は、反転前発光時全体像の二値化像と同様となり、第2の二値化像では、IP像領域外領域に相当する領域が低輝度領域となり、イメージングプレート10に相当する領域が高輝度領域となる。第2の二値化像の高輝度領域の外形は、消去前のイメージングプレート10の露光・未露光の状態のいかんに関わらず、イメージングプレート10の外形に応じた形状となる。画像処理部81は、第2の二値化像に基づいて、上記と同様にして、IP傾き角度と、イメージングプレート10の短手サイズ、長手サイズ及び主面面積と、IPサイズの種類とを特定することができる。IP傾き角度及びIPサイズの特定は、特定部としての画像処理部81が行う。処理としては、ステップS27の後に、ステップS11~S18と同様の処理を行うようにしてよい。
The image processing unit 81 can specify the IP inclination angle and IP size based on the entire image at the time of erasing, in the same manner as when specifying the IP tilt angle and IP size based on the entire image at the time of emission. Specifically, the image processing unit 81 generates a binarized image by, for example, binarizing the entire image 200 before inversion and erasure. This binarized image may be referred to as a second binarized image. A binarized image obtained by binarizing the entire image 200 at the time of erasure before inversion is also an example of an imaging plate shape radiation image. The threshold value when binarizing the entire image 200 at the time of erasing before inversion is, for example, larger than the luminance value of the area image 202 outside the IP image area included in the whole image 200 at the time of erasing before inversion, and when erasing before inversion The brightness value is set smaller than the brightness value of the IP total reflected light image 201 which is an IP image included in the total image 200 . As a result, the second binarized image is similar to the binarized image of the entire image at the time of light emission before inversion, and in the second binarized image, the area corresponding to the area outside the IP image area becomes a low brightness area. , the area corresponding to the imaging plate 10 becomes a high brightness area. The outer shape of the high-brightness region of the second binarized image has a shape corresponding to the outer shape of the imaging plate 10, regardless of whether the imaging plate 10 is exposed or unexposed before erasing. Based on the second binarized image, the image processing unit 81 calculates the IP inclination angle, the short side size, long side size and main surface area of the imaging plate 10, and the type of the IP size in the same manner as described above. can be specified. The IP tilt angle and IP size are specified by the image processing section 81 as a specifying section. As for the processing, the same processing as steps S11 to S18 may be performed after step S27.
このように、IP傾き角度の特定に、イメージングプレート10の反射光像を表す消去時画像信号が使用される場合であっても、発光時画像信号が使用される場合と同様に、IP傾き角度を適切に特定することができる。また、IPサイズの特定に消去時画像信号が使用される場合であっても、発光時画像信号が使用される場合と同様に、IPサイズを適切に特定することができる。
In this way, even when the erase image signal representing the reflected light image of the imaging plate 10 is used to specify the IP tilt angle, the IP tilt angle can be appropriately identified. Further, even when the image signal at the time of erasure is used to specify the IP size, the IP size can be appropriately specified as in the case where the image signal at the time of light emission is used.
<IP相当部分の傾きの補正について>
イメージングプレート10が基準姿勢から傾く場合には、図20等に示されるように、取得全体像においてIP相当部分(言い換えればIP像)が傾くことになる。詳細には、イメージングプレート10が基準姿勢から右回りに傾く場合には、IP相当部分の長手方向は、取得全体像において副走査方向DRsに対応する方向(図20では反転前全体像100aの長手方向)に対して右回りに傾くことになる。一方で、イメージングプレート10が基準姿勢から左回りに傾く場合には、IP相当部分の長手方向は、取得全体像において副走査方向DRsに対応する方向に対して左回りに傾くことになる。IP相当部分が傾いた状態で取得全体像が表示される場合、ユーザは、傾いたIP相当部分を見辛い可能性がある。
<About correction of the tilt of the IP equivalent part>
When the imaging plate 10 is tilted from the reference posture, the portion corresponding to the IP (in other words, the IP image) will be tilted in the entire acquired image, as shown in FIG. 20 and the like. In detail, when the imaging plate 10 is tilted clockwise from the reference posture, the longitudinal direction of the portion corresponding to the IP is the direction corresponding to the sub-scanning direction DRs in the acquired overall image (in FIG. 20, the longitudinal direction of the entire image 100a before inversion is direction), it will tilt clockwise. On the other hand, when the imaging plate 10 is tilted counterclockwise from the reference posture, the longitudinal direction of the IP equivalent portion is tilted counterclockwise with respect to the direction corresponding to the sub-scanning direction DRs in the entire acquired image. If the entire acquired image is displayed with the IP-corresponding portion tilted, the user may find it difficult to see the tilted IP-corresponding portion.
そこで、画像処理部81は、発光時全体像あるいは消去時全体像に基づいて特定したIP傾き角度αに基づいて、取得全体像に対して、IP相当部分の傾きを補正する傾き補正処理を行ってもよい。補正対象の取得全体像が、発光光L2の検出に基づく発光時全体像である場合、傾き補正処理では、IP相当部分の傾きが補正されることによって、当該IP相当部分に含まれる放射線像の傾きが補正される。一方で、補正対象の取得全体像が、反射光の検出に基づく消去時全体像である場合、傾き補正処理では、イメージングプレート10が写るIP全体反射光像の傾きが補正される。画像処理部81は、輝度反転処理が行われる前の画像信号に基づく取得全体像に対して傾き補正処理を行ってもよいし、輝度反転処理が行われた後の画像信号に基づく取得全体像に対して傾き補正処理を行ってもよい。表示部3は、傾き補正処理後の取得全体像を表示してもよい。傾き補正処理は、図18の一連の処理の中で実行されてもよいし、図18の処理とは別のタイミングで実行されてもよい。また、傾き補正処理は、図27の一連の処理の中で実行されてもよいし、図27の処理とは別のタイミングで実行されてもよい。傾き補正処理は、イメージングプレート10の基準姿勢からの傾きに応じた、取得全体像でのIP相当部分(言い換えればIP像)の傾きを補正する処理であるといえる。
Therefore, the image processing unit 81 performs a tilt correction process to correct the tilt of the portion corresponding to the IP on the obtained entire image based on the IP tilt angle α specified based on the entire image during emission or the entire image during erasure. It's okay. When the obtained overall image to be corrected is the entire image during light emission based on the detection of the emitted light L2, in the tilt correction process, the tilt of the IP equivalent portion is corrected, so that the radiation image included in the IP equivalent portion is corrected. The tilt is corrected. On the other hand, when the acquired overall image to be corrected is an erased overall image based on detection of reflected light, in the tilt correction process, the tilt of the entire IP reflected light image in which the imaging plate 10 is reflected is corrected. The image processing unit 81 may perform tilt correction processing on the obtained entire image based on the image signal before the luminance inversion processing is performed, or may perform tilt correction processing on the obtained entire image based on the image signal after the luminance inversion processing is performed. A tilt correction process may be performed on the image. The display unit 3 may display the entire acquired image after the tilt correction process. The tilt correction process may be executed in the series of processes in FIG. 18, or may be executed at a timing different from the process in FIG. Further, the tilt correction process may be executed in the series of processes in FIG. 27, or may be executed at a timing different from the process in FIG. 27. The tilt correction process can be said to be a process for correcting the tilt of the IP-corresponding portion (in other words, the IP image) in the acquired overall image, in accordance with the tilt of the imaging plate 10 from the reference posture.
図31は傾き補正処理の一例を説明するための概略図である。図29では、傾き補正処理が行われる前の取得全体像250が上側に示され、傾き補正処理が行われた後の取得全体像250が下側に示されている。補正対象の取得全体像250には、IP相当部分(言い換えればIP像)251とIP像領域外領域像252とが含まれる。図31では、IP相当部分251の長手方向DR1が破線で示され、取得全体像250において副走査方向DRsに対応する方向DR2が一点鎖線で示されている。
FIG. 31 is a schematic diagram for explaining an example of tilt correction processing. In FIG. 29, the acquired overall image 250 before the tilt correction process is performed is shown on the upper side, and the acquired overall image 250 after the tilt correction process is performed on the lower side. The acquired overall image 250 to be corrected includes an IP equivalent portion (in other words, an IP image) 251 and an image 252 of an area outside the IP image area. In FIG. 31, the longitudinal direction DR1 of the IP equivalent portion 251 is shown by a broken line, and the direction DR2 corresponding to the sub-scanning direction DRs in the acquired overall image 250 is shown by a dashed-dotted line.
傾き補正処理において、画像処理部81は、補正対象の取得全体像250に含まれるIP相当部分251の重心251aを求める。ここで、IP相当部分251の重心251aは、取得全体像250の二値化像の高輝度領域の重心と一致する。画像処理部81は、取得全体像250の二値化像を生成し、生成した二値化像の高輝度領域の重心を求めることによって、取得全体像250のIP相当部分251の重心251aを求めることができる。次に、画像処理部81は、求めた重心251aを中心にして取得全体像250をIP傾き角度αだけ回転させる。このとき、画像処理部81は、IP傾き角度αがプラスの場合、図29に示されるように、取得全体像250を左回り255LにIP傾き角度αだけ回転させる。一方で、IP傾き角度αがマイナスの場合、画像処理部81は、取得全体像250を右回りにIP傾き角度αだけ回転させる。これにより、IP相当部分251の傾きが補正されて、IP相当部分251の長手方向DR1は、取得全体像250において副走査方向DRsに対応する方向DR2に平行となる。
In the tilt correction process, the image processing unit 81 determines the center of gravity 251a of the IP equivalent portion 251 included in the acquired overall image 250 to be corrected. Here, the center of gravity 251a of the IP equivalent portion 251 coincides with the center of gravity of the high brightness area of the binarized image of the acquired overall image 250. The image processing unit 81 generates a binarized image of the acquired overall image 250, and determines the centroid 251a of the IP equivalent portion 251 of the acquired overall image 250 by determining the centroid of the high brightness region of the generated binarized image. be able to. Next, the image processing unit 81 rotates the obtained overall image 250 by the IP tilt angle α around the obtained center of gravity 251a. At this time, if the IP tilt angle α is positive, the image processing unit 81 rotates the obtained entire image 250 counterclockwise 255L by the IP tilt angle α, as shown in FIG. On the other hand, if the IP tilt angle α is negative, the image processing unit 81 rotates the acquired overall image 250 clockwise by the IP tilt angle α. As a result, the inclination of the IP equivalent portion 251 is corrected, and the longitudinal direction DR1 of the IP equivalent portion 251 becomes parallel to the direction DR2 corresponding to the sub-scanning direction DRs in the acquired overall image 250.
図32は、上述の図20に示される反転前発光時全体像100aに対して傾き補正処理が行われた様子の一例を示す概略図である。図20と図32とを比較して理解できるように、反転前発光時全体像100aに対する傾き補正処理によって、IP相当部分(言い換えればIP像)105aに含まれる放射線像101aの傾きが適切に補正されている。傾き補正処理が行われた反転前発光時全体像100aでのIP相当部分105aの姿勢は、イメージングプレート10の姿勢が基準姿勢である場合に得られる反転前発光時全体像100aでのIP相当部分105aの姿勢と同じとなる。表示部3は、傾き補正処理後の反転前発光時全体像100aを、例えば、図32のようなグレースケールで表示してもよい。以後、取得全体像が表示されることには、傾き補正処理後の取得全体像が表示されることも含まれる。
FIG. 32 is a schematic diagram showing an example of how the tilt correction process is performed on the entire image 100a at the time of light emission before inversion shown in FIG. 20 described above. As can be understood by comparing FIG. 20 and FIG. 32, by performing the tilt correction process on the entire image 100a at the time of light emission before inversion, the tilt of the radiation image 101a included in the IP equivalent portion (in other words, IP image) 105a is appropriately corrected. has been done. The posture of the IP equivalent portion 105a in the entire image 100a at the time of light emission before inversion where the tilt correction process has been performed is the same as the portion corresponding to IP in the whole image 100a at the time of light emission before inversion obtained when the posture of the imaging plate 10 is the reference posture. The attitude is the same as that of 105a. The display unit 3 may display the entire image 100a at the time of light emission before inversion after the tilt correction process in a gray scale as shown in FIG. 32, for example. Hereinafter, displaying the entire acquired image includes displaying the entire acquired image after the tilt correction process.
このように、画像処理部81が、IP傾き角度に基づいて取得全体像のIP相当部分の傾きを補正することによって、傾きが適切に補正されたIP相当部分を得ることができる。この場合、画像処理部81はイメージングプレート10の像(IP被作用光像)の傾きを補正する補正処理部として機能する。例えば、発光時全体像に対して傾き補正処理が行われる場合、傾きが適切に補正された放射線像を得ることができる。また、消去時全体像に対して傾き補正処理が行われる場合、傾きが適切に補正されたIP全体反射光像を得ることができる。
In this manner, the image processing unit 81 corrects the inclination of the IP-equivalent portion of the obtained entire image based on the IP inclination angle, thereby obtaining an IP-equivalent portion whose inclination has been appropriately corrected. In this case, the image processing section 81 functions as a correction processing section that corrects the inclination of the image of the imaging plate 10 (IP-effected light image). For example, when tilt correction processing is performed on the entire image during light emission, a radiation image whose tilt has been appropriately corrected can be obtained. Furthermore, when tilt correction processing is performed on the entire image during erasing, it is possible to obtain an IP entire reflected light image whose tilt has been appropriately corrected.
<取得全体像に対する切出処理について>
画像処理部81は、放射線像を含む発光時全体像において切り出す対象の切出像をIP傾き角度及びIPサイズに基づいて決定し、決定した当該切出像を当該発光時全体像から切り出す切出処理を行ってもよい。この切出処理により、IP傾き角度及びIPサイズに応じた所望の切出像を発光時全体像から得ることができる。画像処理部81は切出処理を行う切り出し部として機能する。切出処理は、図18の一連の処理の中で実行されてもよいし、図18の処理とは別のタイミングで実行されてもよい。また、切出処理は、図27の一連の処理の中で実行されてもよいし、図27の処理とは別のタイミングで実行されてもよい。
<About extraction processing for the acquired whole image>
The image processing unit 81 determines a cropped image of a target to be cropped in the entire image during light emission including a radiation image based on the IP tilt angle and the IP size, and performs cropping to cut out the determined cropped image from the entire image during light emission. Processing may be performed. Through this cutting process, a desired cutout image according to the IP inclination angle and IP size can be obtained from the entire image during light emission. The image processing section 81 functions as a cutting section that performs cutting processing. The cutting process may be executed during the series of processes in FIG. 18, or may be executed at a timing different from the process in FIG. Further, the cutout process may be executed during the series of processes in FIG. 27, or may be executed at a timing different from the process in FIG.
切出処理では、例えば、発光時全体像のIP相当部分(言い換えればIP像)が切出像として決定されてもよい。この場合、画像処理部81は、例えば、発光時全体像あるいは消去時全体像に基づいて特定されたIPサイズの種類及びIP傾き角度に基づいて、発光時全体像のIP相当部分を切出像として決定する。以下に、画像処理部81が発光時全体像のIP相当部分を切出像として決定する際の当該画像処理部81の動作の一例について説明する。以後、画像処理部81が特定したIPサイズの種類を特定サイズZと呼ぶことがある。本例では、Zは0、1、2及び3のいずれかの値となる。
In the cropping process, for example, an IP equivalent portion of the entire image at the time of light emission (in other words, an IP image) may be determined as the cropped image. In this case, the image processing unit 81 converts a portion corresponding to the IP of the entire image during emission into a cut-out image based on the type of IP size and IP tilt angle specified based on the entire image during emission or the entire image during erasure. Determine as. An example of the operation of the image processing section 81 when the image processing section 81 determines the IP-corresponding portion of the entire image at the time of light emission as the cropped image will be described below. Hereinafter, the type of IP size specified by the image processing unit 81 may be referred to as a specific size Z. In this example, Z has a value of 0, 1, 2, or 3.
切出処理において、画像処理部81は、例えば、IPサイズの種類とIP傾き角度に基づいて、発光時全体像に対して切出枠を設定する。そして、画像処理部81は、発光時全体像での切出枠内の部分を、切出像として決定する。
In the cropping process, the image processing unit 81 sets a cropping frame for the entire image during light emission based on, for example, the type of IP size and the IP tilt angle. Then, the image processing unit 81 determines the portion within the cutout frame in the entire image at the time of light emission as the cutout image.
切出枠の形状は、特定サイズZのイメージングプレート10の公称外形と相似形を成す。本例では、イメージングプレート10の外形は四隅が丸まった長方形であることから、切出枠の形状も四隅が丸まった長方形となる。そして、切出枠の短手方向のサイズは、特定サイズZのイメージングプレート10の公称短手サイズ(特定サイズZの公称短手サイズともいう)に応じた値となり、切出枠の長手方向のサイズは、特定サイズZのイメージングプレート10の公称長手サイズ(特定サイズZの公称長手サイズともいう)に応じた値となる。
The shape of the cutting frame is similar to the nominal outer shape of the imaging plate 10 of the specific size Z. In this example, since the outer shape of the imaging plate 10 is a rectangle with rounded corners, the shape of the cutting frame is also a rectangle with rounded corners. The size of the cutting frame in the width direction is a value corresponding to the nominal width size of the imaging plate 10 of the specific size Z (also referred to as the nominal width size of the specific size Z), and the length of the cutting frame in the longitudinal direction is The size is a value corresponding to the nominal longitudinal size of the imaging plate 10 of the specific size Z (also referred to as the nominal longitudinal size of the specific size Z).
ここで、画像処理部81は、IPサイズの各種類について、公称短手サイズ及び公称長手サイズのそれぞれが、取得全体像での何画素分に相当するかを予め把握している。画素のP1個分が特定サイズZの公称短手サイズに相当し、画素のP2個分が特定サイズZの公称長手サイズに相当するとき、画像処理部81は、切出枠の短手方向のサイズを画素のP1個分の長さに設定し、切出枠の長手方向のサイズを画素のP2個分の長さに設定する。例えば、P1=800、P2=1100とすると、切出枠の短手方向のサイズは画素800個分の長さに設定され、切出枠の長手方向のサイズは画素1100個分の長さに設定される。
Here, the image processing unit 81 knows in advance how many pixels in the captured overall image each of the nominal short size and nominal long size corresponds to for each type of IP size. When P1 pixels corresponds to the nominal short size of a specific size Z and P2 pixels corresponds to the nominal long size of a specific size Z, the image processing unit 81 sets the short size of the cropping frame to the length of P1 pixels and sets the long size of the cropping frame to the length of P2 pixels. For example, if P1 = 800 and P2 = 1100, the short size of the cropping frame is set to the length of 800 pixels and the long size of the cropping frame is set to the length of 1100 pixels.
画像処理部81は、切出枠の外形及びサイズを決定すると、切出枠の中心が発光時全体像のIP相当部分の重心と一致し、かつ切出枠の長手方向及び短手方向が発光時全体像の長手方向及び短手方向にそれぞれ平行となるように、切出枠を発光時全体像上に配置する。なお、上述のように、発光時全体像のIP相当部分の重心は、当該発光時全体像の二値化像の高輝度領域の重心と一致する。
When the image processing unit 81 determines the outer shape and size of the cropping frame, the center of the cropping frame coincides with the center of gravity of the IP-corresponding portion of the entire image when light is emitted, and the longitudinal and lateral directions of the cropping frame are arranged so that the light is emitted. The cutting frame is arranged on the entire image at the time of light emission so as to be parallel to the longitudinal direction and the width direction of the entire image at the time. Note that, as described above, the center of gravity of the IP-corresponding portion of the entire image during light emission coincides with the center of gravity of the high-intensity region of the binarized image of the entire image during light emission.
次に、画像処理部81は、発光時全体像上に配置した切出枠を、IP相当部分の重心の回りにIP傾き角度だけ回転させる。このとき、画像処理部81は、IP傾き角度がプラスの場合には切出枠を右回りに回転させ、IP傾き角度がマイナスの場合には切出枠を左回りに回転させる。これにより、発光時全体像のうち切出枠内の部分がIP相当部分に一致する。画像処理部81は、発光時全体像のうち、IP傾き角度だけ回転させた切出枠内の部分を切出像に決定する。その後、画像処理部81は、決定した切出像を発光時全体像から切り出す。これにより、発光時全体像からIP相当部分が切り出されて、イメージングプレート10に相当する部分だけの像を得ることができる。切出処理は、反転前発光時全体像に対して行われてもよいし、反転後発光時全体像に対して行われてもよい。また、切出範囲を定める目的からは、必ずしも公称のサイズにあてはめなくとも、二値化の結果得たイメージングプレート範囲を切出枠に適用させるようにしてもよい。
Next, the image processing unit 81 rotates the cutout frame placed on the entire image during light emission by the IP inclination angle around the center of gravity of the portion corresponding to the IP. At this time, the image processing unit 81 rotates the cropping frame clockwise when the IP tilt angle is positive, and rotates the cropping frame counterclockwise when the IP tilt angle is negative. As a result, the portion within the cutout frame of the entire image at the time of light emission coincides with the IP equivalent portion. The image processing unit 81 determines, as a cutout image, a portion within the cutout frame rotated by the IP tilt angle of the entire image at the time of light emission. Thereafter, the image processing unit 81 cuts out the determined cutout image from the entire light emission image. Thereby, the portion corresponding to the IP is cut out from the entire image during light emission, and an image of only the portion corresponding to the imaging plate 10 can be obtained. The cutting process may be performed on the entire image during light emission before inversion, or may be performed on the entire image during light emission after inversion. Furthermore, for the purpose of determining the cutting range, the imaging plate range obtained as a result of binarization may be applied to the cutting frame without necessarily applying the nominal size.
図33は、上述の図16に示される反転後発光時全体像100bに対して切出枠150が設定されている様子の一例を示す概略図である。切り出しの対象となる反転後発光時全体像100bのような生体放射線撮影画像には、IP像領域とIP像領域外領域像とが含まれる。図34は、図33の例において、反転後発光時全体像100bでの切出枠150内の切出像151が、反転後発光時全体像100bから切り出された様子の一例を示す概略図である。図34に示されるように、反転後発光時全体像100bからIP相当部分105bが適切に切り出されている。切出像151には、反転後発光時全体像100bに含まれる放射線像(言い換えれば被励起領域光像)101bと同じ放射線像151aが含まれる。
FIG. 33 is a schematic diagram showing an example of how a cutting frame 150 is set for the entire image 100b during light emission after inversion shown in FIG. 16 described above. The biological radiography image, such as the entire image 100b at the time of light emission after inversion, which is a target for cutting out, includes an IP image region and an image of a region outside the IP image region. FIG. 34 is a schematic diagram showing an example of how the cropped image 151 within the cropping frame 150 in the entire image 100b at the time of light emission after reversal is cut out from the whole image 100b at the time of light emission after reversal in the example of FIG. be. As shown in FIG. 34, an IP equivalent portion 105b is appropriately cut out from the entire image 100b during light emission after inversion. The cropped image 151 includes a radiation image 151a that is the same as the radiation image 101b (in other words, an excited region optical image) included in the entire image 100b during light emission after inversion.
反転後発光時全体像100bからIP相当部分105bを切り出すように、生体放射線撮影画像に対してイメージングプレート形状データを適用させることをイメージングプレート形状適用処理と呼ぶこととする。イメージングプレート形状適用処理には、生体放射線撮影画像に対して切り出しを行うためにイメージングプレート形状を位置決めすることと、切出枠を設定することと、切り出した結果、生体放射線撮影画像から切出像として生体放射線撮影像を抽出することなどが含まれる。
The application of imaging plate shape data to a biological radiation image so as to cut out IP-equivalent portion 105b from overall image 100b at the time of post-inversion emission is referred to as imaging plate shape application processing. The imaging plate shape application processing includes positioning the imaging plate shape for cutting out the biological radiation image, setting a cutting frame, and extracting the biological radiation image as a cut-out image from the biological radiation image as a result of the cutting out.
図35は、上述の図17に示される反転後発光時全体像100bに対して切出枠150が設定されている様子の一例を示す概略図である。図36は、図35の例において、反転後発光時全体像100bでの切出枠150内の切出像151が反転後発光時全体像100bから切り出された様子の一例を示す概略図である。図36に示されるように、反転後発光時全体像100bが未露光領域像103bを含む場合であっても、反転後発光時全体像100bからIP相当部分105bが適切に切り出されている。切出像151には、反転後発光時全体像100bに含まれる放射線像101bと同じ放射線像151aが含まれるとともに、反転後発光時全体像100bに含まれる未露光領域像(言い換えれば、IP反射光像あるいはIP非輝尽性反射光像)103bと同じ未露光領域像151bが含まれる。
FIG. 35 is a schematic diagram showing an example of how a cutting frame 150 is set for the entire image 100b during light emission after inversion shown in FIG. 17 described above. FIG. 36 is a schematic diagram showing an example of how the cropped image 151 within the cropping frame 150 in the entire image 100b at the time of light emission after reversal is cut out from the whole image 100b at the time of light emission after reversal in the example of FIG. . As shown in FIG. 36, even if the entire image 100b at the time of light emission after reversal includes the unexposed area image 103b, the portion corresponding to IP 105b is appropriately cut out from the whole image 100b at the time of light emission after reversal. The cropped image 151 includes a radiation image 151a that is the same as the radiation image 101b included in the entire image 100b during light emission after reversal, and an unexposed area image (in other words, an image of an unexposed area included in the entire image 100b during light emission after reversal). The same unexposed area image 151b as the optical image (or IP non-stimulable reflection optical image) 103b is included.
切出処理が行われる場合、表示部3は、表示制御部82の制御下で発光時全体像から切り出された切出像151を表示してもよい。この場合、表示部3は、図34及び36のようなグレースケールで切出像151を表示してもよい。図34及び36は切出像151の表示例を示す概略図であるともいえる。切出像151が表示される場合、ユーザは、発光時全体像のうち必要な像だけを確認することができる。本例のように、発光時全体像からIP相当部分が切出像151として切り出されて表示される場合、ユーザは、発光時全体像のうち、必要なIP相当部分だけを確認することができる。これにより、ユーザは、例えば図36のような切出像151の表示を確認することによって、イメージングプレート10に未露光部分が含まれていることを容易に特定することができる。また、ユーザは、イメージングプレート10での未露光部分の範囲も容易に特定することができる。
When the cropping process is performed, the display section 3 may display the cropped image 151 cropped from the entire image during light emission under the control of the display control section 82. In this case, the display unit 3 may display the cropped image 151 in gray scale as shown in FIGS. 34 and 36. It can be said that FIGS. 34 and 36 are schematic diagrams showing display examples of the cutout image 151. When the cropped image 151 is displayed, the user can check only the necessary image out of the entire image at the time of light emission. As in this example, when the IP equivalent portion is cut out and displayed as the cropped image 151 from the entire image when the light is emitted, the user can confirm only the necessary IP equivalent portion of the entire image when the light is emitted. . Thereby, the user can easily identify that the imaging plate 10 includes an unexposed portion by checking the display of the cutout image 151 as shown in FIG. 36, for example. Furthermore, the user can easily specify the range of the unexposed portion of the imaging plate 10.
表示部3は、表示制御部82の制御下で、発光時全体像から切り出された切出像151と消去時全体像200とを同時にかつ別々に表示してもよい。図37は、表示部3の表示面3aに切出像151と消去時全体像200がグレースケールで表示されている様子の一例を示す概略図である。図37には、未露光領域像151bを含む切出像151が示されている。図37に示されるように、表示部3は、切出像151及び消去時全体像200を、例えば、切出像151と消去時全体像200のIP全体反射光像(言い換えれば、IP相当部分あるいはIP像)201とが同じ大きさとなるように表示してもよい。また、表示部3は、切出像151及び消去時全体像200を、例えば横並びに表示してもよい。表示部3が切出像151と消去時全体像200とを同時にかつ別々に表示することによって、ユーザは、切出像151と消去時全体像200とを簡単に見比べることができる。これにより、ユーザは、例えば、消去時全体像200に含まれるIP全体反射光像201と切出像151とを比較することによって、発光時全体像から適切にIP相当部分が切り出されているか否かを容易に特定することができる。
Under the control of the display control unit 82, the display unit 3 may simultaneously and separately display the cropped image 151 cut out from the entire image at the time of light emission and the entire image at the time of erasure 200. FIG. 37 is a schematic diagram showing an example of how the cropped image 151 and the erased entire image 200 are displayed in gray scale on the display surface 3a of the display unit 3. FIG. 37 shows a cutout image 151 including an unexposed area image 151b. As shown in FIG. 37, the display unit 3 displays the cropped image 151 and the whole image 200 when erased, for example, the entire IP reflected light image (in other words, the IP equivalent portion) of the cropped image 151 and the whole image 200 when erased. Alternatively, it may be displayed so that the IP image) 201 has the same size. Further, the display unit 3 may display the cropped image 151 and the entire image at the time of erasure 200, for example, side by side. By displaying the cropped image 151 and the whole image 200 at the time of erasure simultaneously and separately on the display unit 3, the user can easily compare the cropped image 151 and the whole image 200 at the time of erasure. As a result, the user can check whether the IP-corresponding portion has been appropriately cut out from the entire image when emitting light by, for example, comparing the entire IP reflected light image 201 included in the entire image during erasing 200 and the cut-out image 151. can be easily identified.
切出枠150すなわち切出範囲は、消去時全体像200に基づいて決定してもよい。この場合、例えば、消去時全体像200でのIP非輝尽性反射光像(言い換えばIP全体反射光像)の範囲を境界処理の画像処理などで特定して切出範囲を定め、定めた切出範囲を発光時全体像に設定して切出像151を生成してもよい。このとき、境界処理の画像処理においてIP二値化像の取得を利用するようにしてもよい。イメージングプレート10を発光時と消去時で同じ姿勢で保持部20によって保持するようにすることで、位置的応用が可能である。
The cropping frame 150, that is, the cropping range may be determined based on the entire image 200 at the time of erasure. In this case, for example, the range of the IP non-stimulable reflected light image (in other words, the entire IP reflected light image) in the entire image 200 at the time of erasure is specified by image processing of boundary processing, etc., and the cutout range is determined. The cropped image 151 may be generated by setting the cropping range to the entire image during light emission. At this time, acquisition of an IP binarized image may be used in the image processing for boundary processing. Positional application is possible by holding the imaging plate 10 in the same posture by the holding unit 20 during emission and erasing.
図37の例のような切出像と消去時全体像とが同時にかつ別々に表示される構成例を変形して、消去時全体像を図21の二値化像500のような像に替え、切出像と発光時全体像を二値化した像とが同時にかつ別々に表示される構成にしてもよい。
By modifying the configuration example in which the cropped image and the entire image during erasing are displayed simultaneously and separately, such as the example in FIG. 37, the entire image during erasing is replaced with an image such as the binarized image 500 in FIG. 21. , the cutout image and the binarized image of the entire image at the time of light emission may be displayed simultaneously and separately.
画像処理部81は、上述の傾き補正処理と同様に、発光時全体像から切り出した切出像151の傾きを、発光時全体像あるいは消去時全体像に基づいて特定したIP傾き角度に基づいて補正してもよい。これにより、例えば、補正後の切出像151が表示される場合、ユーザは切出像151を見やすくなる。以後、傾き補正処理には、切出像151の傾きを補正することも含まれるものとする。
Similar to the above-described tilt correction process, the image processing unit 81 determines the tilt of the cropped image 151 cut out from the entire image during light emission based on the IP tilt angle specified based on the entire image during light emission or the entire image during erasure. It may be corrected. Thereby, for example, when the cropped image 151 after correction is displayed, the user can easily see the cropped image 151. Hereinafter, it is assumed that the tilt correction process also includes correcting the tilt of the cropped image 151.
画像処理部81は、例えば、発光時全体像に対する上述の傾き補正処理と同様にして切出像151の傾きを補正する。画像処理部81は、やはりイメージングプレート10の像(IP被作用光像)の傾きを補正する補正処理部として機能する。具体的には、画像処理部81は、まず、切出像151の重心を求める。切出像151の重心は、発光時全体像の二値化像の高輝度領域の重心と一致する。したがって、画像処理部81は、発光時全体像の二値化像の高輝度領域の重心を求めることによって、切出像151の重心を求めることができる。次に、画像処理部81は、求めた重心を中心にして切出像151をIP傾き角度だけ回転させる。このとき、画像処理部81は、IP傾き角度がプラスの場合、切出像151を左回りにIP傾き角度だけ回転させる。一方で、IP傾き角度がマイナスの場合、画像処理部81は、切出像151を右回りにIP傾き角度だけ回転させる。これにより、切出像151の傾きが補正される。よって、切出像151に含まれる、発光時画像信号に基づく放射線像の傾きが補正される。
The image processing unit 81 corrects the inclination of the cropped image 151, for example, in the same way as the above-described inclination correction process for the entire image during light emission. The image processing unit 81 also functions as a correction processing unit that corrects the inclination of the image of the imaging plate 10 (IP-effected optical image). Specifically, the image processing unit 81 first obtains the center of gravity of the cropped image 151. The center of gravity of the cropped image 151 coincides with the center of gravity of the high brightness region of the binarized image of the entire image during light emission. Therefore, the image processing unit 81 can find the center of gravity of the cropped image 151 by finding the center of gravity of the high-brightness region of the binarized image of the entire image during light emission. Next, the image processing unit 81 rotates the cropped image 151 by the IP tilt angle around the obtained center of gravity. At this time, if the IP tilt angle is positive, the image processing unit 81 rotates the cropped image 151 counterclockwise by the IP tilt angle. On the other hand, if the IP tilt angle is negative, the image processing unit 81 rotates the cropped image 151 clockwise by the IP tilt angle. As a result, the inclination of the cropped image 151 is corrected. Therefore, the inclination of the radiation image included in the cropped image 151 and based on the image signal at the time of light emission is corrected.
図38~40は、発光時全体像に対して切出処理が行われ、その後、切出像151に対して傾き補正処理が行われる様子の一例を示す概略図である。図38~40の例では、上述の図20に示される反転前発光時全体像100aに対して切出処理が行われている。図38に示されるように、画像処理部81は、上述のようにして切出枠150を反転前発光時全体像100aに設定する。次に、画像処理部81は、反転前発光時全体像100aでの切出枠150内の切出像151を、図39に示されるように、反転前発光時全体像100aから切り出す。その後、図40に示されるように、画像処理部81は、切り出した切出像151の傾きをIP傾き角度に基づいて補正する。これにより、イメージングプレート10の基準姿勢からの傾きに応じた切出像151の傾きが適切に補正される。傾きが補正された切出像151の姿勢は、イメージングプレート10の姿勢が基準姿勢である場合に得られる切出像151の姿勢と同じとなる。
38 to 40 are schematic diagrams showing an example of how the cropping process is performed on the entire image during light emission, and then the tilt correction process is performed on the cropped image 151. In the examples shown in FIGS. 38 to 40, the cutting process is performed on the entire image 100a at the time of light emission before inversion shown in FIG. 20 described above. As shown in FIG. 38, the image processing unit 81 sets the cutting frame 150 to the entire image 100a at the time of light emission before inversion as described above. Next, the image processing unit 81 cuts out a cutout image 151 within the cutout frame 150 in the entire image 100a at the time of light emission before inversion, as shown in FIG. 39, from the whole image 100a at the time of light emission before inversion, as shown in FIG. Thereafter, as shown in FIG. 40, the image processing unit 81 corrects the tilt of the cut out image 151 based on the IP tilt angle. Thereby, the inclination of the cropped image 151 according to the inclination of the imaging plate 10 from the reference posture is appropriately corrected. The orientation of the cropped image 151 whose tilt has been corrected is the same as the orientation of the cropped image 151 obtained when the orientation of the imaging plate 10 is the reference orientation.
上記の例では、画像処理部81は、発光時全体像のIP相当部分を切出像151としているが、IP相当部分の一部を切出像151としてもよい。以下にこの場合の画像処理部81の動作の一例について説明する。
In the above example, the image processing unit 81 uses the IP-corresponding portion of the entire image during light emission as the cut-out image 151, but it may also use a part of the IP-corresponding portion as the cut-out image 151. An example of the operation of the image processing section 81 in this case will be described below.
図41は、イメージングプレート10を保持する保持部20の他の例を示す概略図である。図41では、保持部20の固定部22が備える各固定部分22aが接近位置に存在する様子が示されている。図41に示される保持部20(保持部20Aともいう)では、各固定部分22aが接近位置に存在する場合、固定部22は、イメージングプレート10の周縁部10aを覆う重なり部分220を有する。各固定部分22aは、接近位置に存在する場合、イメージングプレート10の周縁部10aを覆う重なり部分220aを有する。固定部22の重なり部分220は、複数の固定部分22aの重なり部分220aで構成されている。
Figure 41 is a schematic diagram showing another example of a holding unit 20 that holds an imaging plate 10. Figure 41 shows the state in which each fixed portion 22a of the fixed portion 22 of the holding unit 20 is in the close position. In the holding unit 20 (also called holding unit 20A) shown in Figure 41, when each fixed portion 22a is in the close position, the fixed portion 22 has an overlapping portion 220 that covers the peripheral portion 10a of the imaging plate 10. When each fixed portion 22a is in the close position, it has an overlapping portion 220a that covers the peripheral portion 10a of the imaging plate 10. The overlapping portion 220 of the fixed unit 22 is composed of overlapping portions 220a of multiple fixed portions 22a.
イメージングプレート10が保持部20Aで保持されている場合、イメージングプレート10の周縁部10aが固定部22の重なり部分220で覆われることから、読取装置1では、重なり部分220が写る発光時全体像が得られる。イメージングプレート10の重なり部分220はイメージングプレート10からは被把持部と考えてもよい。
When the imaging plate 10 is held by the holding part 20A, the peripheral edge 10a of the imaging plate 10 is covered by the overlapping part 220 of the fixing part 22. Therefore, in the reading device 1, the entire image at the time of light emission in which the overlapping part 220 is captured is not visible. can get. The overlapping portion 220 of the imaging plate 10 may be considered as a gripped portion from the imaging plate 10.
図42は、イメージングプレート10が保持部20Aで保持されている場合に得られる反転前発光時全体像100aの一例を示す概略図である。図42に示される反転前発光時全体像100aには、固定部22の重なり部分220の像120(重なり部分像120ともいう)が含まれている。重なり部分像120は、重なり部分220からの励起光L10の反射光の検出に基づく像である。重なり部分像120は、複数の固定部分(把持部ともいう)22aの重なり部分220aの像120a(重なり部分像120aともいう)で構成されている。本例では、各固定部分220aの表面には、例えば黒アルマイト処理が行われている。したがって、反転前発光時全体像100aに含まれる重なり部分像120の輝度値は小さくなる。重なり部分像120aは、IP像領域外領域像102aに含まれ、IP像(IP像領域光像)を構成する放射線像101aには含まれない。
FIG. 42 is a schematic diagram showing an example of the entire image 100a at the time of light emission before reversal, which is obtained when the imaging plate 10 is held by the holding section 20A. The entire image 100a at the time of light emission before reversal shown in FIG. 42 includes an image 120 (also referred to as an overlapping partial image 120) of an overlapping portion 220 of the fixed portion 22. The overlapping partial image 120 is an image based on detection of the reflected light of the excitation light L10 from the overlapping portion 220. The overlapping partial image 120 is composed of an image 120a (also referred to as an overlapping partial image 120a) of an overlapping portion 220a of a plurality of fixed portions (also referred to as gripping portions) 22a. In this example, the surface of each fixed portion 220a is subjected to, for example, black alumite treatment. Therefore, the luminance value of the overlapping partial image 120 included in the entire image 100a at the time of light emission before inversion becomes small. The overlapping partial image 120a is included in the IP image area outside area image 102a and is not included in the radiation image 101a constituting the IP image (IP image area optical image).
画像処理部81は、重なり部分像120が発光時全体像に含まれる場合、発光時全体像において、重なり部分像120(言い換えれば複数の重なり部分像120a)を切出像151が含まないように、IP相当部分の一部を切出像151として決定してもよい。この場合、画像処理部81は、例えば、上記と同様にして、IPサイズの種類とIP傾き角度に基づいて切出枠150を発光時全体像に設定する。上述のようにして設定された切出枠150の外形は、イメージングプレート10の外形(言い換えればイメージングプレート10の輪郭)に応じた形状を成すため、この時点では、切出枠150内には重なり部分像120が含まれる。図43は、図42に示される反転前発光時全体像100aに対して上述のようにして切出枠150が設定された様子の一例を示す概略図である。反転前発光時全体像100aに設定された切出枠150内には、重なり部分像120を構成する複数の重なり部分像120aが含まれる。
When the overlapping partial image 120 is included in the entire image at the time of light emission, the image processing unit 81 prevents the cropped image 151 from including the overlapping partial image 120 (in other words, the plurality of overlapping partial images 120a) in the entire image at the time of light emission. , a part of the IP equivalent portion may be determined as the cropped image 151. In this case, the image processing unit 81 sets the cropping frame 150 to the entire image during light emission based on the type of IP size and the IP tilt angle, for example, in the same manner as described above. The outer shape of the cutting frame 150 set as described above has a shape corresponding to the outer shape of the imaging plate 10 (in other words, the outline of the imaging plate 10), so at this point, there is no overlap in the cutting frame 150. A partial image 120 is included. FIG. 43 is a schematic diagram showing an example of how the cutting frame 150 is set as described above for the entire image 100a at the time of light emission before inversion shown in FIG. 42. A plurality of overlapping partial images 120a constituting the overlapping partial image 120 are included in the cutout frame 150 set in the entire image 100a at the time of light emission before inversion.
なお、図42に示される反転前発光時全体像100aには、イメージングプレート10に固定部分22aが重なった状態でのIP像(つまり、図32と比較して一部が欠けたIP像)が含まれるが、イメージングプレート10の外形に応じた切出枠150は、例えば次のようにして設定することができる。例えば、図21~23で説明した手法と同様の手法で第1主成分軸と第2主成分軸を定める。IP像に重なり部分像120aの写り込みはあるが、この写り込みの量は、演算に支障があるほどの量ではないため、上記と同様にして第1主成分軸と第2主成分軸を定めることができる。第1主成分軸に沿う方向と第2主成分軸に沿う方向のそれぞれで、高輝度領域501の長手方向の幅の最大値と、高輝度領域501の短手方向の幅の最大値とを求める。そして、高輝度領域501の長手方向の幅の最大値を切出枠150の長手方向幅とし、高輝度領域501の短手方向の幅の最大値を切出枠150の短手方向幅とする。あるいは、上述のように、複数種類のサイズのイメージングプレート10の短手サイズ及び長手サイズをそれぞれ公称短手サイズ及び公称長手サイズとして記憶する場合には、各サイズにおけるイメージングプレート10の形状も記憶し、求めた各最大値がいずれのサイズに適合するか照合し、各サイズにおけるイメージングプレート10の形状に従って切出枠を設定してもよい。
Note that the entire image 100a at the time of light emission before reversal shown in FIG. 42 includes an IP image in a state where the fixed portion 22a overlaps the imaging plate 10 (that is, an IP image with a portion missing compared to FIG. 32). However, the cutting frame 150 according to the outer shape of the imaging plate 10 can be set, for example, as follows. For example, the first principal component axis and the second principal component axis are determined using a method similar to the method described with reference to FIGS. 21 to 23. Although there is a reflection of the overlapping partial image 120a on the IP image, the amount of this reflection is not large enough to interfere with the calculation, so the first principal component axis and the second principal component axis are set in the same manner as above. can be determined. The maximum value of the width in the longitudinal direction of the high brightness region 501 and the maximum value of the width in the short direction of the high brightness region 501 in the direction along the first principal component axis and the direction along the second principal component axis, respectively. demand. Then, the maximum value of the width in the longitudinal direction of the high-intensity area 501 is set as the width in the longitudinal direction of the cutting frame 150, and the maximum value of the width in the lateral direction of the high-intensity area 501 is set as the width in the lateral direction of the cutting frame 150. . Alternatively, as described above, when storing the short side size and long side size of the imaging plate 10 of multiple types of sizes as the nominal short side size and the nominal long side size, respectively, the shape of the imaging plate 10 for each size is also stored. , it is also possible to check which size each of the obtained maximum values corresponds to and set the cutting frame according to the shape of the imaging plate 10 in each size.
画像処理部81は、上述のようにして切出枠150を発光時全体像に設定した後、切出枠150内に重なり部分像120が含まれないように、切出枠150を例えば相似形で縮小する。このとき、画像処理部81は、切出枠150内に重なり部分像120が含まれないように、かつ縮小後の切出枠150ができるだけ大きくなるように、切出枠150を相似形で縮小する。画像処理部81は、例えば、発光時全体像の二値化像に基づいて、発光時全体像での各重なり部分像120aの位置及び範囲を特定することができる。そして、画像処理部81は、各重なり部分像120aについて特定した位置及び範囲に基づいて、切出枠150内に重なり部分像120が含まれないように、かつ縮小後の切出枠150ができるだけ大きくなるように、切出枠150を相似形で縮小する。そして、画像処理部81は、発光時全体像において縮小後の切出枠150内の部分を切出像151として決定する。これにより、重なり部分像120が含まれず、かつIP相当部分105aの大部分が含まれるような切出像151が得られる。図44は、図43に示される切出枠150が縮小された様子の一例を示す概略図である。画像処理部81は、図44に示されるように、反転前発光時全体像100aにおいて縮小後の切出枠150内の部分を切出像151として決定する。
After setting the cropping frame 150 to the entire image at the time of light emission as described above, the image processing unit 81 sets the cropping frame 150 to a similar shape, for example, so that the overlapping partial image 120 is not included in the cropping frame 150. to reduce the size. At this time, the image processing unit 81 reduces the cropping frame 150 in a similar shape so that the overlapping partial image 120 is not included in the cropping frame 150 and so that the cropping frame 150 after reduction is as large as possible. do. For example, the image processing unit 81 can specify the position and range of each overlapping partial image 120a in the entire image at the time of light emission, based on the binarized image of the entire image at the time of light emission. Then, based on the position and range specified for each overlapping partial image 120a, the image processing unit 81 prevents the overlapping partial image 120 from being included in the cropping frame 150 and makes the cropping frame 150 after reduction as large as possible. The cutting frame 150 is reduced in a similar shape so that it becomes larger. Then, the image processing unit 81 determines the portion within the cutout frame 150 after reduction in the entire image at the time of light emission as the cutout image 151. As a result, a cutout image 151 that does not include the overlapping partial image 120 and includes most of the IP equivalent portion 105a is obtained. FIG. 44 is a schematic diagram showing an example of how the cutting frame 150 shown in FIG. 43 is reduced. As shown in FIG. 44, the image processing unit 81 determines the portion within the cutout frame 150 after reduction in the entire image 100a at the time of light emission before inversion as the cutout image 151.
画像処理部81は、切出像151を決定すると、発光時全体像から切出像151を切り出す。図45は、図44に示される切出像151が反転前全体像100aから切り出された様子の一例を示す概略図である。
After determining the cutout image 151, the image processing unit 81 cuts out the cutout image 151 from the entire image at the time of light emission. FIG. 45 is a schematic diagram showing an example of how the cropped image 151 shown in FIG. 44 is cropped from the entire image 100a before inversion.
このように、画像処理部81が、切出像151が重なり部分像120を含まないようにIP相当部分の一部を切出像151として決定する場合には、固定部22の重なり部分220が写らない切出像151を得ることができる。これにより、例えば、切出像151が表示される場合、ユーザは、重なり部分220の像に気を取られることがなく、かつ診断に有効な像をできるだけ広く残した部分だけを確認することができる。
In this way, when the image processing unit 81 determines a part of the IP equivalent portion as the cutout image 151 so that the cutout image 151 does not include the overlapped partial image 120, the overlapped portion 220 of the fixed unit 22 is A cutout image 151 that is not visible can be obtained. As a result, for example, when the cropped image 151 is displayed, the user is not distracted by the image of the overlapping portion 220, and can check only the portion that leaves as much of the image useful for diagnosis as possible. can.
なお、イメージングプレート10の放射線像形成層11側の面を平面視した場合の端部を非有効領域とし、当該面の中央のほとんどの領域を有効領域とみなすことがある。例えば、図44において、切出枠150で示される境界の内側の領域を有効領域とし、境界の外側の領域を非有効領域とみなすなどである。イメージングプレート10は、製造工程で端部(非有効領域)に圧がかけられることがあり、この場合、非有効領域には良好な放射線像の蓄積が保証できないという場合がありうるためである。固定部22の重なり部分220が写らない切出像151を表示することにより、有効領域の像のみを確認することも可能である。
Note that when the surface of the imaging plate 10 on the radiation image forming layer 11 side is viewed in plan, the end portion may be regarded as an ineffective area, and most of the area in the center of the surface may be regarded as an effective area. For example, in FIG. 44, the area inside the boundary indicated by the cutout frame 150 is regarded as the valid area, and the area outside the boundary is regarded as the ineffective area. This is because pressure may be applied to the edges (non-effective areas) of the imaging plate 10 during the manufacturing process, and in this case, it may not be possible to ensure that a good radiation image is accumulated in the non-effective areas. By displaying the cropped image 151 that does not include the overlapping portion 220 of the fixed portion 22, it is also possible to confirm only the image of the effective area.
画像処理部81は、発光時全体像から、重なり部分220が写らない切出像151を切り出す場合であっても、上述のように、切り出した切出像151の傾きをIP傾き角度に基づいて補正してもよい。この場合、表示制御部82は、傾きが補正された切出像151を表示部3に表示させてもよい。
Even if the image processing unit 81 cuts out the cropped image 151 that does not include the overlapping portion 220 from the entire image during light emission, the image processing unit 81 calculates the tilt of the cropped image 151 based on the IP tilt angle as described above. It may be corrected. In this case, the display control section 82 may cause the display section 3 to display the cropped image 151 whose tilt has been corrected.
図46は、イメージングプレート10が保持部20Aで保持されている場合に得られる反転前発光時全体像100aの他の例を示す概略図である。図47~49は、図46に示される反転前発光時全体像100aに対して切出処理が行われ、その後、切出像151に対して傾き補正処理が行われる様子の一例を示す概略図である。画像処理部81は、上述のようにして、反転前発光時全体像100aに切出枠150を設定し、その後、図46に示されるように、切出枠150内に重なり部分像120が含まれないように、かつ縮小後の切出枠150ができるだけ大きくなるように、切出枠150を相似形で縮小する。次に、画像処理部81は、反転前発光時全体像100aでの切出枠150内の切出像151を、図48に示されるように、反転前発光時全体像100aから切り出す。その後、図49に示されるように、画像処理部81は、切り出した切出像151の傾きをIP傾き角度に基づいて補正する。これにより、イメージングプレート10の基準姿勢からの傾きに応じた切出像151の傾きが適切に補正される。
FIG. 46 is a schematic diagram showing another example of the entire image 100a at the time of light emission before inversion obtained when the imaging plate 10 is held by the holding section 20A. 47 to 49 are schematic diagrams showing an example of how the cropping process is performed on the entire image 100a at the time of light emission before inversion shown in FIG. 46, and then the tilt correction process is performed on the cropped image 151. It is. The image processing unit 81 sets the cropping frame 150 on the entire image 100a at the time of light emission before inversion as described above, and then, as shown in FIG. The cutting frame 150 is reduced in a similar shape so that the cutting frame 150 after reduction is as large as possible so that the cutting frame 150 does not become large and is as large as possible. Next, the image processing unit 81 cuts out a cutout image 151 within the cutout frame 150 in the entire image 100a at the time of light emission before inversion, as shown in FIG. 48, from the whole image 100a at the time of light emission before inversion, as shown in FIG. Thereafter, as shown in FIG. 49, the image processing unit 81 corrects the tilt of the cut out image 151 based on the IP tilt angle. Thereby, the inclination of the cropped image 151 according to the inclination of the imaging plate 10 from the reference posture is appropriately corrected.
このように、画像処理部81は、IPサイズ及びIP傾き角度に基づいて、発光時全体像のIP相当部分の少なくとも一部を切出像として決定することから、IP相当部分の少なくとも一部を発光時全体像から適切に切り出すことができる。なお、固定部分22aはイメージングプレート10を固定するためにイメージングプレート10の端部に接する部分であるので、重なり部分像120は全体像の端部にしか存在しないのが通常である。ゆえに、切出像が、重なり部分像120を含む端部を切除した中央部領域の像となるように決定してよい。
In this way, the image processing unit 81 determines at least a part of the IP-corresponding part of the entire image at the time of light emission as a cut-out image based on the IP size and IP inclination angle. When the light is emitted, it is possible to cut out the entire image appropriately. Note that since the fixed portion 22a is a portion that touches the end of the imaging plate 10 in order to fix the imaging plate 10, the overlapping partial image 120 normally exists only at the end of the entire image. Therefore, the cropped image may be determined to be an image of the central region with the edges including the overlapping partial image 120 removed.
画像処理部81は、発光時全体像に重なり部分像120が含まれない場合であっても、発光時全体像に設定した切出枠150を例えば相似形に縮小し、発光時全体像において縮小後の切出枠150内の部分を切出像151として決定してもよい。この場合であっても、発光時全体像でのIP相当部分(言い換えればIP像)の一部が切出像151として決定される。また、画像処理部81は、発光時全体像に設定した切出枠150を例えば相似形に拡大し、発光時全体像において拡大後の切出枠150内の部分を切出像151として決定してもよい。この場合、発光時全体像において、IP相当部分とその周囲の部分(例えば、IP像領域外領域像の一部あるいは重なり部分像120の少なくとも一部)とが切出像151として決定される。
Even if the overlapping partial image 120 is not included in the entire image when emitting light, the image processing unit 81 reduces the cropping frame 150 set for the entire image when emitting light to a similar shape, and reduces the size of the entire image when emitting light. A portion within the later cutting frame 150 may be determined as the cutting image 151. Even in this case, a part of the IP equivalent portion (in other words, IP image) in the entire image at the time of light emission is determined as the cropped image 151. Further, the image processing unit 81 enlarges the cropping frame 150 set in the entire image at the time of light emission to a similar shape, for example, and determines the portion within the enlarged cropping frame 150 in the whole image at the time of light emission as the cropped image 151. It's okay. In this case, in the entire image at the time of light emission, the portion corresponding to the IP and the surrounding portion (for example, a part of the image outside the IP image area or at least a part of the overlapping partial image 120) are determined as the cropped image 151.
切出処理において、画像処理部81は、IP全体反射光像を含む消去時全体像において切り出す対象の切出像(第2切出像ともいう)をIP傾き角度及びIPサイズに基づいて決定し、決定した第2切出像を消去時全体像から切り出してもよい。この場合、画像処理部81は、消去時全体像のIP相当部分(言い換えればIP全体反射光像)の少なくとも一部を第2切出像として決定してもよい。また、画像処理部81は、消去時全体像に重なり部分220の像が含まれる場合には、第2切出像が重なり部分220の像を含まないように第2切出像を決定してもよい。また、表示制御部82は、消去時全体像から切り出された第2切出像を表示部3に表示させてもよい。この場合、表示部3は、第2切出像と、発光時全体像から切り出された切出像(第1切出像ともいう)151とを、同時にかつ別々に表示してもよい。また、画像処理部81は、IP傾き角度に基づいて、切り出した第2切出像の傾きを補正してもよい。また、表示制御部82は、傾きが補正された第2切出像を表示部3に表示させてもよい。この場合、表示部3は、傾きが補正された第2切出像と、傾きが補正された第1切出像とを同時にかつ別々に表示してもよい。
In the cropping process, the image processing unit 81 determines a cropped image (also referred to as a second cropped image) to be cropped in the entire erased image including the entire IP reflected light image based on the IP tilt angle and the IP size. , the determined second cropped image may be cropped from the entire image during erasing. In this case, the image processing unit 81 may determine at least a part of the IP equivalent portion of the entire image at the time of erasure (in other words, the entire IP reflected light image) as the second cut-out image. Furthermore, if the entire image at the time of erasing includes an image of the overlapping portion 220, the image processing unit 81 determines the second cropped image so that the second cropped image does not include the image of the overlapping portion 220. Good too. Further, the display control unit 82 may cause the display unit 3 to display a second cutout image cut out from the entire image at the time of erasing. In this case, the display unit 3 may simultaneously and separately display the second cropped image and a cropped image (also referred to as a first cropped image) 151 cropped from the entire image at the time of light emission. The image processing unit 81 may also correct the tilt of the second cropped image based on the IP tilt angle. Further, the display control unit 82 may cause the display unit 3 to display the second cropped image whose tilt has been corrected. In this case, the display unit 3 may simultaneously and separately display the second cropped image whose tilt has been corrected and the first cropped image whose tilt has been corrected.
なお、イメージングプレート10が基準姿勢からほとんど傾くことがない場合には、画像処理部81は、IP傾き角度を用いずに、IPサイズに基づいて第1切出像及び第2切出像を決定してもよい。この場合、切出処理では、IP傾き角度に応じて切出枠を回転させる処理が不要となる。以後、切出像を表示することには、傾きが補正された切出像を表示することも含まれる。
Note that when the imaging plate 10 is hardly tilted from the reference posture, the image processing unit 81 determines the first cropped image and the second cropped image based on the IP size without using the IP tilt angle. You may. In this case, the cutting process does not require a process of rotating the cutting frame according to the IP inclination angle. Hereinafter, displaying the cropped image includes displaying the cropped image whose tilt has been corrected.
以上のように、画像処理部81は、生体放射線撮影画像のうち、IP被作用光の検出に基づく像であるIP生体放射線撮影画像を切り出す切出範囲を設定する。これにより、生体放射線撮影画像でのイメージングプレートに相当する部分の像を適切に切り出すことができる。
As described above, the image processing unit 81 sets the cropping range for cutting out the IP living body radiographic image, which is an image based on the detection of IP-affected light, out of the living body radiographic image. Thereby, it is possible to appropriately cut out the image of the portion corresponding to the imaging plate in the biological radiographic image.
<未露光領域像の特定について>
画像処理部81は、第1切出像151での未露光領域像あるいは発光時全体像での未露光領域像を特定する未露光特定処理を行ってもよい。未露光特定処理は、図18の一連の処理の中で実行されてもよいし、図18の処理とは別のタイミングで実行されてもよい。また、未露光特定処理は、図27の一連の処理の中で実行されてもよいし、図27の処理とは別のタイミングで実行されてもよい。画像処理部81は、未露光領域像を特定する特定部(未露光領域像特定部ともいう)として機能する。未露光領域像の特定により、生体の放射線撮影から得た取得像中に生体像領域がどれほどあるか特定することが容易となる。
<About identifying unexposed area images>
The image processing unit 81 may perform unexposed identification processing to identify an unexposed area image in the first cutout image 151 or an unexposed area image in the entire image at the time of light emission. The unexposed identification process may be executed during the series of processes in FIG. 18, or may be executed at a timing different from the process in FIG. Further, the unexposed identification process may be executed during the series of processes in FIG. 27, or may be executed at a timing different from the process in FIG. The image processing unit 81 functions as a specifying unit (also referred to as an unexposed area image specifying unit) that specifies an unexposed area image. By specifying the unexposed area image, it becomes easy to specify how many living body image areas there are in the acquired image obtained from radiography of the living body.
画像処理部81は、図39及び45等の例のように、IP相当部分の少なくとも一部を第1切出像151に設定した場合、未露光特定処理において、例えば、第1切出像151を二値化して得られる二値化像を生成する。ここで、上述の図34及び36のように、反転後発光時全体像100bから切り出された第1切出像151を反転後第1切出像151と呼ぶ。また、上述の図45及び48のように、反転前発光時全体像100aから切り出された第1切出像151を反転前第1切出像151と呼ぶ。
When at least a part of the IP equivalent portion is set as the first cutout image 151 as in the examples shown in FIGS. 39 and 45, the image processing unit 81, for example, A binarized image is generated by binarizing the image. Here, as shown in FIGS. 34 and 36 above, the first cut-out image 151 cut out from the entire image 100b during light emission after inversion is referred to as the first cut-out image 151 after inversion. Further, as shown in FIGS. 45 and 48 described above, the first cut-out image 151 cut out from the entire image 100a at the time of light emission before inversion is referred to as the first cut-out image 151 before inversion.
反転前第1切出像151の二値化で使用するしきい値は、例えば、反転前第1切出像151に含まれる放射線像の最小輝度値よりも小さく、かつ反転前第1切出像151に含まれる未露光領域像の輝度値よりも大きい値に設定される。例えば、反転前第1切出像151に含まれる放射線像の最小輝度値がIL4とし、反転前第1切出像151に含まれる未露光領域像の輝度値がIL2である場合を考える。IL2<IL4である。この場合、しきい値は、例えばIL2<IL5<IL4の関係となるIL50に設定される。これにより、IP相当部分の少なくとも一部である反転前第1切出像151の二値化像では、未露光領域像に相当する部分が低輝度領域となり、放射線像に相当する部分が高輝度領域となる。画像処理部81は、反転前第1切出像151の二値化像での低輝度領域を特定することによって、反転前第1切出像151での未露光領域像を適切に特定することができる。なお、イメージングプレート10に未露光部分が含まれない場合には、反転前第1切出像151の二値化像には低輝度領域は含まれない。
The threshold value used in the binarization of the first cut-out image 151 before inversion is, for example, smaller than the minimum brightness value of the radiation image included in the first cut-out image 151 before inversion, and The brightness value is set to be larger than the brightness value of the unexposed area image included in the image 151. For example, consider a case where the minimum brightness value of the radiation image included in the first cutout image 151 before inversion is IL4, and the brightness value of the unexposed area image included in the first cutout image 151 before inversion is IL2. IL2<IL4. In this case, the threshold value is set to IL50, which satisfies the relationship IL2<IL5<IL4, for example. As a result, in the binarized image of the first cutout image 151 before inversion, which is at least a part of the IP equivalent part, the part corresponding to the unexposed area image becomes a low brightness area, and the part corresponding to the radiation image becomes a high brightness area. It becomes an area. The image processing unit 81 appropriately identifies the unexposed area image in the first cut-out image 151 before inversion by specifying the low-luminance area in the binarized image of the first cut-out image 151 before inversion. Can be done. Note that if the imaging plate 10 does not include an unexposed portion, the binarized image of the first cutout image 151 before inversion does not include a low brightness area.
また、反転後第1切出像151の二値化で使用するしきい値は、例えば、反転後第1切出像151に含まれる放射線像の最大輝度値よりも大きく、かつ反転後第1切出像151に含まれる未露光領域像の輝度値よりも小さい値に設定される。これにより、IP相当部分の少なくとも一部である反転後第1切出像151の二値化像では、未露光領域像に相当する部分が高輝度領域となり、放射線像に相当する部分が低輝度領域となる。画像処理部81は、反転後第1切出像151の二値化像での高輝度領域を特定することによって、反転後第1切出像151での未露光領域像を適切に特定することができる。
Further, the threshold value used in the binarization of the first cut-out image 151 after inversion is, for example, larger than the maximum luminance value of the radiation image included in the first cut-out image 151 after inversion, and The brightness value is set to a value smaller than the brightness value of the unexposed area image included in the cutout image 151. As a result, in the binarized image of the first cutout image 151 after inversion, which is at least a part of the IP equivalent part, the part corresponding to the unexposed area image becomes a high brightness area, and the part corresponding to the radiation image becomes a low brightness area. It becomes an area. The image processing unit 81 appropriately identifies the unexposed area image in the first cut-out image 151 after inversion by specifying the high-brightness area in the binarized image of the first cut-out image 151 after inversion. Can be done.
このように、画像処理部81は、発光時全体像からIP相当部分の少なくとも一部を第1切出像151として切り出した場合、第1切出像151での未露光領域像を適切に特定することができる。
In this way, when the image processing unit 81 cuts out at least a portion of the IP-equivalent portion from the overall image at the time of light emission as the first cut-out image 151, it can appropriately identify the unexposed area image in the first cut-out image 151.
未露光特定処理において、画像処理部81は、IP像領域外領域像を含む第1切出像151での未露光領域像を特定してもよい。この場合、画像処理部81は、IP像領域外領域像に含まれる第1切出像151を含む第1切出像像151での未露光領域像を特定してもよい。画像処理部81は、IP像領域外領域像を含む第1切出像151での未露光領域像を特定する場合、第1切出像151を三値化して三値化像を生成する。
In the unexposed area identification process, the image processing unit 81 may identify an unexposed area image in the first cut-out image 151 including an image of an area outside the IP image area. In this case, the image processing unit 81 may identify an unexposed area image in the first cut-out image 151 including the first cut-out image 151 included in the image of an area outside the IP image area. When identifying an unexposed area image in the first cut-out image 151 including an image of an area outside the IP image area, the image processing unit 81 ternarizes the first cut-out image 151 to generate a ternarized image.
画像処理部81は、まず、第1切出像151を構成する複数の画素のそれぞれの輝度値と、予め設定された下側しきい値と上側しきい値とを比較する。上側しきい値は下側しきい値よりも大きい値である。画像処理部81は、第1切出像151を構成する複数の画素のそれぞれの輝度値について、下側しきい値未満の輝度値を第1の値に置き換え、下側しきい値以上上側しきい値未満の輝度値を第2の値に置き換え、上側しきい値以上の輝度値を第3の値に置き換える。ここで、第3の値は第2の値よりも大きく、第2の値は第1の値よりも大きい。これにより、第1切出像151が三値化されて三値化像が得られる。以後、三値化像において、輝度値が第3の値である領域を高輝度領域と呼び、輝度値が第2の値である領域を中輝度領域と呼び、輝度値が第1の値である領域を低輝度領域と呼ぶことがある。
The image processing unit 81 first compares the brightness values of each of the plurality of pixels constituting the first cutout image 151 with a preset lower threshold and an upper threshold. The upper threshold is a larger value than the lower threshold. The image processing unit 81 replaces the luminance values of each of the plurality of pixels constituting the first cropped image 151 with a first value that is less than the lower threshold value, and replaces the luminance value that is above the lower threshold value. Brightness values below the threshold are replaced with a second value, and brightness values above the upper threshold are replaced with a third value. Here, the third value is greater than the second value, and the second value is greater than the first value. As a result, the first cutout image 151 is ternarized and a ternarized image is obtained. Hereinafter, in the ternary image, the area where the brightness value is the third value will be called the high brightness area, the area where the brightness value is the second value will be called the medium brightness area, and the area where the brightness value is the first value will be called the medium brightness area. A certain area is sometimes called a low brightness area.
反転前第1切出像151の三値化で使用される下側しきい値(第1しきい値ともいう)は、例えば、反転前第1切出像151に含まれるIP像領域外領域像の輝度値よりも大きく、かつ反転前第1切出像151に含まれる未露光領域像の輝度値よりも小さい値に設定される。反転前第1切出像151の三値化で使用される上側しきい値(第2しきい値ともいう)は、例えば、反転前第1切出像151に含まれる未露光領域像の輝度値よりも大きく、かつ反転前第1切出像151に含まれる放射線像の最小輝度値よりも小さい値に設定される。例えば、反転前第1切出像151に含まれる放射線像の最小輝度値が10000、反転前第1切出像151に含まれる未露光領域像の輝度値が3000、反転前第1切出像151に含まれるIP像領域外領域像の輝度値が1000である場合を考える。この場合、下側しきい値は例えば2000に設定され、上側しきい値は例えば5000に設定される。これにより、反転前第1切出像151の三値化像では、IP像領域外領域像に相当する部分が低輝度領域となり、未露光領域像に相当する部分が中輝度領域となり、放射線像に相当する部分が高輝度領域となる。画像処理部81は、反転前第1切出像151の三値化像での中輝度領域を特定することによって、反転前第1切出像151での未露光領域像を適切に特定することができる。なお、イメージングプレート10に未露光部分が含まれない場合には、反転前第1切出像151の三値化像には、中輝度領域は含まれない。
The lower threshold (also referred to as the first threshold) used in the ternarization of the first cut-out image 151 before inversion is, for example, an area outside the IP image area included in the first cut-out image 151 before inversion. It is set to a value larger than the brightness value of the image and smaller than the brightness value of the unexposed area image included in the first cutout image 151 before inversion. The upper threshold (also referred to as a second threshold) used in the ternarization of the first cut-out image 151 before inversion is, for example, the brightness of the unexposed area image included in the first cut-out image 151 before inversion. The value is set to be larger than the value and smaller than the minimum brightness value of the radiation image included in the first cutout image 151 before inversion. For example, the minimum brightness value of the radiation image included in the first cutout image 151 before inversion is 10000, the brightness value of the unexposed area image included in the first cutout image 151 before inversion is 3000, and the first cutout image before inversion Consider a case where the brightness value of the IP image area outside area image included in 151 is 1000. In this case, the lower threshold is set to 2000, for example, and the upper threshold is set to 5000, for example. As a result, in the ternary image of the first cutout image 151 before inversion, the portion corresponding to the image of the area outside the IP image area becomes a low brightness area, the portion corresponding to the unexposed area image becomes a medium brightness area, and the radiation image The part corresponding to is a high brightness area. The image processing unit 81 appropriately specifies the unexposed area image in the first cut-out image 151 before inversion by specifying the medium brightness region in the ternary image of the first cut-out image 151 before inversion. Can be done. Note that if the imaging plate 10 does not include an unexposed portion, the ternary image of the first cutout image 151 before inversion does not include a medium brightness region.
反転後第1切出像151の三値化で使用される下側しきい値(第1しきい値ともいう)は、例えば、反転後第1切出像151に含まれる放射線像の最大輝度値よりも大きく、かつ反転後第1切出像151に含まれる未露光領域像の輝度値よりも小さい値に設定される。反転後第1切出像151の三値化で使用される上側しきい値(第2しきい値ともいう)は、例えば、反転後第1切出像151に含まれる未露光領域像の輝度値よりも大きく、かつ反転後第1切出像151に含まれるIP像領域外領域像の輝度値よりも小さい値に設定される。これにより、反転後第1切出像151の三値化像では、IP像領域外領域像に相当する部分が高輝度領域となり、未露光領域像に相当する部分が中輝度領域となり、放射線像に相当する部分が低輝度領域となる。画像処理部81は、反転後第1切出像151の三値化像での中輝度領域を特定することによって、反転後第1切出像151での未露光領域像を適切に特定することができる。
The lower threshold (also referred to as the first threshold) used in the ternarization of the first cut-out image 151 after inversion is, for example, the maximum brightness of the radiation image included in the first cut-out image 151 after inversion. The brightness value is set to be larger than the brightness value of the unexposed area image included in the first cutout image 151 after inversion and smaller than the brightness value of the unexposed area image included in the first cutout image 151 after inversion. The upper threshold (also referred to as the second threshold) used in the ternarization of the first cut-out image 151 after inversion is, for example, the brightness of the unexposed area image included in the first cut-out image 151 after inversion. The luminance value is set to a value larger than the brightness value of the IP image area outside the IP image area and smaller than the brightness value of the IP image area outside area image included in the first cutout image 151 after inversion. As a result, in the ternary image of the first cropped image 151 after inversion, the portion corresponding to the image of the area outside the IP image area becomes a high brightness area, the portion corresponding to the unexposed area image becomes a medium brightness area, and the radiation image The area corresponding to is the low brightness area. The image processing unit 81 appropriately identifies the unexposed area image in the first cut-out image 151 after inversion by specifying a medium brightness area in the ternary image of the first cut-out image 151 after inversion. Can be done.
このように、画像処理部81は、IP像領域外領域像を含む第1切出像151での未露光領域像を適切に特定することができる。
In this way, the image processing unit 81 can appropriately identify the unexposed area image in the first cutout image 151 including the IP image area outside area image.
未露光特定処理において、画像処理部81は、発光時全体像での未露光領域像を特定してもよい。この場合、画像処理部81は、IP像領域外領域像を含む第1切出像151での未露光領域像を特定する場合と同様にして、発光時全体像を三値化して三値化像を生成する。反転前発光時全体像100aの三値化で使用される下側しきい値及び上側しきい値は、反転前第1切出像151の三値化で使用される下側しきい値及び上側しきい値と同様に設定される。画像処理部81は、反転前発光時全体像100aの三値化像での中輝度領域を特定することによって、反転前発光時全体像100aでの未露光領域像を適切に特定することができる。また、反転後発光時全体像100bの三値化で使用される下側しきい値及び上側しきい値は、反転後第1切出像151の三値化で使用される下側しきい値及び上側しきい値と同様に設定される。画像処理部81は、反転後発光時全体像100bの三値化像での中輝度領域を特定することによって、反転後発光時全体像100bでの未露光領域像を適切に特定することができる。
In the unexposed area identification process, the image processing unit 81 may identify an unexposed area image in the entire image at the time of light emission. In this case, the image processing unit 81 digitizes the entire image at the time of light emission into three values in the same manner as in the case of specifying the unexposed area image in the first cutout image 151 including the image of the area outside the IP image area. Generate an image. The lower threshold value and upper threshold value used in ternarization of the entire image 100a during pre-inversion light emission are the lower threshold value and upper threshold value used in ternarization of the first cut-out image 151 before inversion. It is set in the same way as the threshold. The image processing unit 81 can appropriately identify the unexposed area image in the entire image 100a during pre-reversal emission by specifying the medium brightness area in the ternary image of the entire image 100a during pre-inversion emission. . In addition, the lower threshold value and the upper threshold value used in the ternarization of the entire image 100b during light emission after inversion are the lower threshold values used in the ternarization of the first cropped image 151 after inversion. and the upper threshold. The image processing unit 81 can appropriately identify the unexposed area image in the entire image 100b after inversion and emission by specifying the medium brightness region in the ternary image of the entire image 100b during inversion and emission. .
画像処理部81が、第1切出像151あるいは発光時全体像において未露光領域像を特定した場合、表示制御部82は、第1切出像151あるいは発光時全体像において未露光領域像が存在することを通知する未露光通知情報161を表示部3に表示させてもよい。これにより、ユーザは、第1切出像151あるいは発光時全体像において未露光領域像が存在することを容易に認識することができる。よって、ユーザは、イメージングプレート10に未露光部分が含まれていることを容易に認識することができる。
When the image processing unit 81 identifies an unexposed area image in the first cutout image 151 or the entire image during light emission, the display control unit 82 specifies that the unexposed area image is in the first cutout image 151 or the entire image during light emission. Unexposed notification information 161 may be displayed on the display unit 3 to notify the existence of the unexposed image. Thereby, the user can easily recognize that an unexposed region image exists in the first cutout image 151 or the entire image during light emission. Therefore, the user can easily recognize that the imaging plate 10 includes an unexposed portion.
図50及び51は、未露光通知情報161の表示例を示す概略図である。図50の例では、放射線像151a及び未露光領域像151bを含む第1切出像151と未露光通知情報161とが表示部3の表示面3aに表示されている。図51の例では、反転後発光時全体像100bと未露光通知情報161とが表示面3aに表示されている。図50の例では、未露光領域像151bの範囲を縁取る縁取り線1510が、第1切出像151において未露光領域像151bが存在することを通知する未露光通知情報161として表示されている。同様に、図51の例では、未露光領域像103bの範囲を縁取る縁取り線1030が、反転後発光時全体像100bにおいて未露光領域像103bが存在することを通知する未露光通知情報161として表示されている。縁取り線1510及び1030は、少なくとも一色でカラー表示されてもよい。
50 and 51 are schematic diagrams showing display examples of the unexposed notification information 161. In the example of FIG. 50, a first cutout image 151 including a radiation image 151a and an unexposed area image 151b and unexposed notification information 161 are displayed on the display surface 3a of the display unit 3. In the example of FIG. 51, the entire image 100b at the time of light emission after reversal and the unexposed notification information 161 are displayed on the display surface 3a. In the example of FIG. 50, a border line 1510 that frames the range of the unexposed area image 151b is displayed as unexposed notification information 161 that notifies that the unexposed area image 151b exists in the first cutout image 151. . Similarly, in the example of FIG. 51, the border line 1030 that frames the range of the unexposed area image 103b is used as unexposed notification information 161 to notify that the unexposed area image 103b exists in the entire image 100b at the time of light emission after reversal. Displayed. The border lines 1510 and 1030 may be displayed in at least one color.
未露光通知情報161は図50及び51の例には限られない。例えば、未露光領域像に対して付された斜線等のハッチングが未露光通知情報161として表示されてもよい。また、未露光領域像が少なくとも一色でカラー表示されることによって、未露光通知情報161が表示されてもよい。
The unexposed notification information 161 is not limited to the examples shown in FIGS. 50 and 51. For example, hatching such as diagonal lines added to the unexposed area image may be displayed as the unexposed notification information 161. Furthermore, the unexposed area image may be displayed in at least one color to display the unexposed notification information 161.
また、図52に示されるように、第1切出像151を取り囲む枠状図形1511が未露光通知情報161として表示されてもよい。図52の例では、説明の便宜上、枠状図形1511にハッチングが示されているが、枠状図形1511にはハッチングが示されなくてもよいし、ハッチングが示されてもよい。また、枠状図形1511は、少なくとも一色でカラー表示されてもよい。同様に、発光時全体像において未露光領域像が特定された場合、当該発光時全体像を取り囲む枠状図形が未露光通知情報161として表示されてもよい。また、未露光通知情報161は文字及び記号の少なくとも一方で表示されてもよい。
Further, as shown in FIG. 52, a frame-shaped figure 1511 surrounding the first cutout image 151 may be displayed as the unexposed notification information 161. In the example of FIG. 52, hatching is shown in the frame-like figure 1511 for convenience of explanation, but the frame-like figure 1511 does not need to have hatching, or may have hatching. Furthermore, the frame-shaped figure 1511 may be displayed in at least one color. Similarly, when an unexposed area image is specified in the entire image at the time of light emission, a frame-shaped figure surrounding the entire image at the time of light emission may be displayed as the unexposed notification information 161. Furthermore, the unexposed notification information 161 may be displayed as at least one of letters and symbols.
なお、第1切出像151あるいは発光時全体像に未露光領域像が含まれない場合、つまり、画像処理部81が第1切出像151あるいは発光時全体像において未露光領域像を特定しなかった場合、表示制御部82は、第1切出像151あるいは発光時全体像において未露光領域像が存在しないことを通知する通知情報162を表示部3に表示させてもよい。これにより、ユーザは、イメージングプレート10に未露光部分が含まれていないことを容易に認識することができる。
Note that if the first cutout image 151 or the entire image during light emission does not include an unexposed area image, that is, the image processing unit 81 identifies the unexposed area image in the first cutout image 151 or the entire image during light emission. If there is no unexposed area image, the display control unit 82 may cause the display unit 3 to display notification information 162 notifying that there is no unexposed area image in the first cutout image 151 or the entire image during light emission. This allows the user to easily recognize that the imaging plate 10 does not include any unexposed portions.
図53は、通知情報162の表示例を示す概略図である。図53には、第1切出像151に未露光領域像が存在しないことを通知する通知情報162の表示例が示されている。図53の例では、未露光領域像を含まない第1切出像151を取り囲む枠状図形1512が通知情報162として表示されている。図53の例では、説明の便宜上、枠状図形1512にハッチングが示されているが、枠状図形1512にはハッチングが示されなくてもよいし、ハッチングが示されてもよい。また、枠状図形1512は、少なくとも一色でカラー表示されてもよい。未露光通知情報161として図52の枠状図形1511が表示される場合には、未露光通知情報161としての枠状図形1511と、通知情報162としての枠状図形1512とは、互いに異なる態様で表示される。このとき、枠状図形1511と枠状図形1512は、互いに異なる色で表示されてもよい。また、枠状図形1511と枠状図形1512には、互いに異なるハッチングが示されてもよい。同様に、発光時全体像において未露光領域像が存在しない場合、当該発光時全体像を取り囲む枠状図形が通知情報162として表示されてもよい。また、通知情報162は文字及び記号の少なくとも一方で表示されてもよい。なお、未露光領域像が存在すれば、枠状図形1512の表示と異なる表示態様で未露光領域像の存在が通知されるため、その存在の通知が行われないことによって、未露光領域像が存在しないことが通知されるともいえる。
FIG. 53 is a schematic diagram showing a display example of the notification information 162. FIG. 53 shows a display example of notification information 162 that notifies that there is no unexposed area image in the first cutout image 151. In the example of FIG. 53, a frame-shaped figure 1512 surrounding the first cutout image 151 that does not include an unexposed area image is displayed as the notification information 162. In the example of FIG. 53, hatching is shown in the frame-like figure 1512 for convenience of explanation, but the frame-like figure 1512 does not need to be shown with hatching, or may be shown with hatching. Further, the frame-shaped figure 1512 may be displayed in at least one color. When the frame figure 1511 in FIG. 52 is displayed as the unexposed notification information 161, the frame figure 1511 as the unexposed notification information 161 and the frame figure 1512 as the notification information 162 are displayed in different manners. Is displayed. At this time, the frame-shaped figure 1511 and the frame-shaped figure 1512 may be displayed in mutually different colors. Further, the frame-shaped figure 1511 and the frame-shaped figure 1512 may have different hatchings. Similarly, if there is no unexposed region image in the entire image at the time of light emission, a frame-shaped figure surrounding the entire image at the time of light emission may be displayed as the notification information 162. Further, the notification information 162 may be displayed as at least one of characters and symbols. Note that if an unexposed area image exists, the existence of the unexposed area image will be notified in a display mode different from the display of the frame-shaped figure 1512. It can also be said that the non-existence is notified.
表示制御部82は、上述の図37に示されるように、第1切出像151と消去時全体像200とを同時にかつ別々に表示部3に表示させる場合であって、第1切出像151に未露光領域像が含まれる場合、図54に示されるように未露光通知情報161も一緒に表示部3に表示させてもよい。このとき、消去時全体像200の代わりに第2切出像が表示されてもよい。また、表示制御部82は、上述の図30に示されるように、発光時全体像と消去時全体像200とを同時にかつ別々に表示部3に表示させる場合であって、発光時全体像に未露光領域像が含まれる場合には、図55に示されるように未露光通知情報161も一緒に表示部3に表示させてもよい。このとき、消去時全体像200の代わりに第2切出像が表示されてもよい。
As shown in FIG. 37 described above, the display control unit 82 displays the first cropped image 151 and the erased entire image 200 simultaneously and separately on the display unit 3, and the first cropped image When the unexposed area image 151 is included, unexposed notification information 161 may also be displayed on the display unit 3 as shown in FIG. At this time, a second cutout image may be displayed instead of the entire image 200 at the time of erasing. In addition, as shown in FIG. 30 described above, the display control unit 82 displays the entire image when emitting light and the entire image when erasing 200 on the display unit 3 at the same time and separately. When an unexposed area image is included, unexposed notification information 161 may also be displayed on the display unit 3 as shown in FIG. 55. At this time, a second cutout image may be displayed instead of the entire image 200 at the time of erasing.
また、表示制御部82は、未露光領域像を含まない第1切出像151と消去時全体像200とを同時にかつ別々に表示部3に表示させる場合には、通知情報162も一緒に表示部3に表示させてもよい。このとき、消去時全体像200の代わりに第2切出像が表示されてもよい。同様に、表示制御部82は、未露光領域像を含まない発光時全体像と消去時全体像200とを同時にかつ別々に表示部3に表示させる場合には、通知情報162も一緒に表示部3に表示させてもよい。このとき、消去時全体像200の代わりに第2切出像が表示されてもよい。
In addition, when displaying the first cropped image 151 that does not include the unexposed area image and the entire erased image 200 simultaneously and separately on the display unit 3, the display control unit 82 also displays the notification information 162 together. It may be displayed on section 3. At this time, a second cutout image may be displayed instead of the entire image 200 at the time of erasing. Similarly, when the display control unit 82 simultaneously and separately displays the entire image during light emission and the entire image during erasure 200, which do not include the unexposed area image, on the display unit 3, the display control unit 82 also displays the notification information 162 on the display unit. 3 may be displayed. At this time, a second cutout image may be displayed instead of the entire image 200 at the time of erasing.
以上のように、本例に係る検出器40は、イメージングプレート10からの発光光L2だけではなく、イメージングプレート10からの励起光L10の反射光もある程度検出することができる。そのため、読取装置1は、発光光L2の検出に基づく放射線像と、反射光の検出に基づく反射光像(例えば未露光領域像など)とを得ることができる。よって、読取装置1の利便性が向上する。
As described above, the detector 40 according to the present example can detect not only the emitted light L2 from the imaging plate 10 but also the reflected light of the excitation light L10 from the imaging plate 10 to some extent. Therefore, the reading device 1 can obtain a radiation image based on the detection of the emitted light L2 and a reflected light image (for example, an unexposed area image) based on the detection of the reflected light. Therefore, the convenience of the reading device 1 is improved.
例えば、読取装置1は、イメージングプレート10からの発光光L2の検出に基づく放射線像と、イメージングプレート10からの反射光の検出に基づく反射光像とを含む発光時全体像に基づいて、上述のように、IPサイズを適切に特定したり、IP傾き角度を適切に特定したりすることができる。
For example, the reading device 1 uses the above-described overall image at the time of light emission, including a radiation image based on the detection of the emitted light L2 from the imaging plate 10 and a reflected light image based on the detection of the reflected light from the imaging plate 10. Thus, it is possible to appropriately specify the IP size and the IP tilt angle.
また例えば、読取装置1は、上述の図29,30,37,54,55等に示されるように、イメージングプレート10からの発光光L2の検出に基づく放射線像と、イメージングプレート10からの反射光の検出に基づく反射光像とを同時にかつ別々に表示することによって、ユーザは、イメージングプレート10から読み取られた放射線像とイメージングプレート10の外観とを簡単に見比べることができる。これにより、ユーザは、例えば、イメージングプレート10に未露光部分が含まれていることを容易に特定することができる。
For example, as shown in FIGS. 29, 30, 37, 54, 55, etc., the reading device 1 generates a radiation image based on the detection of the emitted light L2 from the imaging plate 10 and the reflected light from the imaging plate 10. By simultaneously and separately displaying the reflected light image based on the detection of , the user can easily compare the radiation image read from the imaging plate 10 and the appearance of the imaging plate 10 . This allows the user to easily identify, for example, that the imaging plate 10 includes an unexposed portion.
また、上述の図28~30,54,55等に示されるように、イメージングプレート10からの反射光の検出に基づく反射光像であるIP全体反射光像が表示される場合には、ユーザは、例えば、イメージングプレート10の表面に異常が発生しているか否かを容易に特定することができる。イメージングプレート10の表面の異常には、例えば、傷、凹み、欠け、汚れ及び異物の付着が含まれる。
Furthermore, as shown in FIGS. 28 to 30, 54, 55, etc., when the entire IP reflected light image, which is the reflected light image based on the detection of the reflected light from the imaging plate 10, is displayed, the user For example, it is possible to easily identify whether or not an abnormality has occurred on the surface of the imaging plate 10. Abnormalities on the surface of the imaging plate 10 include, for example, scratches, dents, chips, dirt, and adhesion of foreign matter.
図56及び57は、イメージングプレート10の前面に異常が発生している場合において、読取装置1で取得される反転後発光時全体像100bに含まれる放射線像101bの一例と、読取装置1で取得される反転前消去時全体像200に含まれるIP全体反射光像201の一例とをそれぞれを示す概略図である。図示の例では反転前消去時全体像200を消去時全体像として用いている。図56には、放射線像101bにおいて、イメージングプレート10の表面の異常が写る異常領域像1010の拡大図1010Lも示されている。また、図57には、IP全体反射光像201において、イメージングプレート10の表面の異常が写る異常領域像2010の拡大図2010Lも示されている。図56及び57では、イメージングプレート10の前面に傷が発生している場合の放射線像101b及びIP全体反射光像201がそれぞれ示されている。
FIGS. 56 and 57 show an example of a radiation image 101b included in the entire image 100b at the time of inversion and light emission obtained by the reading device 1 when an abnormality occurs on the front surface of the imaging plate 10, and an example of the radiation image 101b obtained by the reading device 1. FIG. 3 is a schematic diagram showing an example of an IP total reflection light image 201 included in a total image 200 at the time of erasure before inversion. In the illustrated example, the entire image 200 at the time of erasing before inversion is used as the entire image at the time of erasing. FIG. 56 also shows an enlarged view 1010L of an abnormal region image 1010 showing an abnormality on the surface of the imaging plate 10 in the radiation image 101b. Further, FIG. 57 also shows an enlarged view 2010L of an abnormal region image 2010 in which an abnormality on the surface of the imaging plate 10 is shown in the entire IP reflected light image 201. 56 and 57 respectively show a radiation image 101b and an IP total reflection light image 201 when a scratch has occurred on the front surface of the imaging plate 10.
図56及び57に示されるように、放射線像101b及びIP全体反射光像201において、イメージングプレート10の表面の異常が写る異常領域像1010の輝度値が、その周囲の輝度値と異なることがある。一方で、撮影対象である歯にカリエス等の病変が発生している場合にも、放射線像101bにおいて、歯の病変発生部位が写る領域の輝度値が、その周囲の輝度値と異なることがある。さらに、図56の例とは異なり、放射線像101bにおいて、異常領域像1010の輝度値が、歯が写る領域の輝度値と近い値となる可能性もある。これらの点に鑑みると、ユーザは、表示部3に表示される放射線像101bに基づいて、イメージングプレート10の表面の異常を特定することは容易ではない。
As shown in FIGS. 56 and 57, in the radiation image 101b and the IP total reflection light image 201, the brightness value of the abnormal area image 1010 showing the abnormality on the surface of the imaging plate 10 may be different from the brightness value of the surrounding area. . On the other hand, even when a lesion such as caries has occurred in the tooth that is the subject of imaging, the brightness value of the area where the lesion occurs on the tooth may be different from the brightness value of the surrounding area in the radiographic image 101b. . Furthermore, unlike the example in FIG. 56, in the radiographic image 101b, the brightness value of the abnormal area image 1010 may be close to the brightness value of the area where teeth are photographed. In view of these points, it is not easy for the user to identify abnormalities on the surface of the imaging plate 10 based on the radiation image 101b displayed on the display unit 3.
これに対して、放射線像を潜像として蓄積しないイメージングプレート10のIP全体反射光像201には歯が写らない。よって、ユーザは、表示部3に表示されるIP全体反射光像201に基づいて、イメージングプレート10の表面の異常を容易に特定することができる。つまり、ユーザは、表示部3に表示されるIP全体反射光像201に含まれる異常領域像1010を認識することによって、イメージングプレート10の表面の異常を容易に特定することができる。ユーザは、表示部3に表示される、IP全体反射光像201を含む消去時全体像200に基づいて、イメージングプレート10の表面の異常を特定してもよい。また、ユーザは、表示部3に表示される、IP全体反射光像201の少なくとも一部を含む第2切出像に基づいて、イメージングプレート10の表面の異常を特定してもよい。
On the other hand, teeth are not visible in the IP total reflection light image 201 of the imaging plate 10 that does not accumulate a radiation image as a latent image. Therefore, the user can easily identify abnormalities on the surface of the imaging plate 10 based on the IP total reflected light image 201 displayed on the display unit 3. That is, by recognizing the abnormal area image 1010 included in the IP total reflection light image 201 displayed on the display unit 3, the user can easily identify the abnormality on the surface of the imaging plate 10. The user may identify an abnormality on the surface of the imaging plate 10 based on the entire erased image 200 including the entire IP reflected light image 201 displayed on the display unit 3 . Further, the user may identify an abnormality on the surface of the imaging plate 10 based on the second cutout image that includes at least a portion of the entire IP reflected light image 201 and is displayed on the display unit 3 .
表示部3が、放射線像とIP全体反射光像とを同時にかつ別々に表示する場合には、ユーザは、放射線像において、イメージングプレート10の表面の異常に相当する領域を特定しやすくなる。よって、例えば、歯科医がユーザである場合、歯科医は、放射線像において、イメージングプレート10の表面の異常に相当する領域を、診断の判断材料から容易に除外することができる。
When the display unit 3 displays the radiation image and the entire IP reflected light image simultaneously and separately, the user can easily identify a region corresponding to an abnormality on the surface of the imaging plate 10 in the radiation image. Therefore, for example, if the user is a dentist, the dentist can easily exclude a region corresponding to an abnormality on the surface of the imaging plate 10 from the diagnostic information in the radiographic image.
図58は、前面に異常を有するイメージングプレート10について取得された第1切出像151及び第2切出像152の表示例を示す概略図である。図58の例では、反転後発光時全体像100bのIP相当部分105bが第1切出像151に設定され、反転前消去時全体像200の消去済みIP反射光像(つまりIP相当部分)201が第2切出像152に設定されている。第2切出像152は、イメージングプレート10の表面の異常が写る異常領域像2010を有している。図58のような表示が行われる場合、ユーザは、例えば、表示される第2切出像152に含まれる消去済みIP反射光像201において異常領域像2010を特定する。そして、ユーザは、消去済みIP反射光像201において特定した異常領域像2010に基づいて、第1切出像151に含まれる放射線像101bにおいて、イメージングプレート10の異常に相当する領域を特定する。
FIG. 58 is a schematic diagram showing a display example of the first cutout image 151 and the second cutout image 152 acquired for the imaging plate 10 having an abnormality on the front surface. In the example of FIG. 58, the IP equivalent portion 105b of the entire image 100b at the time of light emission after inversion is set as the first cutout image 151, and the erased IP reflected light image (that is, the portion corresponding to IP) 201 of the entire image 200 at the time of erasing before inversion is set. is set in the second cutout image 152. The second cutout image 152 has an abnormal region image 2010 showing an abnormality on the surface of the imaging plate 10. When displaying as shown in FIG. 58 is performed, the user identifies the abnormal area image 2010 in the erased IP reflected light image 201 included in the displayed second cutout image 152, for example. Then, based on the abnormal region image 2010 identified in the erased IP reflected light image 201, the user identifies an area corresponding to the abnormality of the imaging plate 10 in the radiation image 101b included in the first cutout image 151.
なお、表示制御部82は、複数枚のイメージングプレート10についてのIP全体反射光像を同時にかつ別々に表示部3に表示させてもよい。図59は、このような表示の一例を示す概略図である。図59の例では、複数枚のイメージングプレート10の前面がそれぞれ写る複数の第2切出像152が表示面3aに表示されている。図59の例では、反転前消去時全体像200のIP全体反射光像201が第2切出像152に設定されている。図59に示されるように、複数枚のイメージングプレート10の前面がそれぞれ写る複数のIP全体反射光像201が同時にかつ別々に表示されることによって、ユーザは、例えば、複数枚のイメージングプレート10のうち、比較的広範囲に異常が発生しているイメージングプレート10を容易に特定することができる。ユーザは、広範囲に異常が発生しているイメージングプレート10を例えば破棄してもよい。なお、複数枚のイメージングプレート10の前面がそれぞれ写る複数の消去時全体像が同時にかつ別々に表示部3に表示されてもよい。
Note that the display control unit 82 may display the entire IP reflected light images of the plurality of imaging plates 10 simultaneously and separately on the display unit 3. FIG. 59 is a schematic diagram showing an example of such a display. In the example of FIG. 59, a plurality of second cut-out images 152 each showing the front surface of a plurality of imaging plates 10 are displayed on the display surface 3a. In the example of FIG. 59, the IP overall reflection light image 201 of the entire image 200 at the time of erasing before inversion is set as the second cutout image 152. As shown in FIG. 59, by simultaneously and separately displaying a plurality of IP overall reflected light images 201 showing the front surfaces of a plurality of imaging plates 10, the user can, for example, Among them, it is possible to easily identify the imaging plate 10 in which an abnormality has occurred over a relatively wide range. For example, the user may discard the imaging plate 10 in which abnormality has occurred over a wide range. Note that a plurality of entire images during erasure, each of which shows the front surface of a plurality of imaging plates 10, may be simultaneously and separately displayed on the display unit 3.
表示制御部82は、操作部4がユーザからの所定の操作を受け付けると、過去に取得された複数のIP全体反射光像201を図59のように表示部3に表示させてもよい。また、読取装置1は、操作部4がユーザからの所定の操作を受け付けると、読取装置1の動作モードを、イメージングプレート10の品質を確認するための品質確認モードに設定し、この品質確認モードの中で、複数枚のイメージングプレート10がそれぞれ写る複数のIP全体反射光像201が取得されて図59のように表示されてもよい。品質確認モードの読取装置1には、複数枚のイメージングプレート10がユーザによって順次投入される。品質確認モードの読取装置1は、一枚のイメージングプレート10が挿入口2aから入れられると、例えば、上述の図27のステップs3,s4,s21,s22を実行して、入れられたイメージングプレート10の前面が写る消去時全体像を取得する。そして、読取装置1は、図27のステップs5及びs6を実行して、処理済みのイメージングプレート10を排出する。読取装置1から処理済みのイメージングプレート10が排出されると、読取装置1には次のイメージングプレート10が入れられる。品質確認モードの読取装置1は、同様に動作して、次のイメージングプレート10の前面が写る消去時全体像を取得し、処理済みのイメージングプレート10を排出する。以後、同様にして、読取装置1へのイメージングプレート10の投入と、読取装置1からのイメージングプレート10の排出が繰り返し実行され、品質確認モードの読取装置1では、複数枚のイメージングプレート10がそれぞれ写る複数の消去時全体像が取得される。その後、表示制御部82は、取得された複数の消去時全体像に基づいて、図59のような表示を表示部3に実行させる。ユーザは、例えば、図59の表示に基づいて、広範囲に異常が発生しているイメージングプレート10を特定して破棄する。
When the operation unit 4 receives a predetermined operation from the user, the display control unit 82 may cause the display unit 3 to display a plurality of previously acquired IP overall reflected light images 201 as shown in FIG. 59. Further, when the operation unit 4 receives a predetermined operation from the user, the reading device 1 sets the operation mode of the reading device 1 to a quality check mode for checking the quality of the imaging plate 10, and sets the operation mode of the reading device 1 to a quality check mode for checking the quality of the imaging plate 10. Among them, a plurality of IP overall reflected light images 201 each showing a plurality of imaging plates 10 may be acquired and displayed as shown in FIG. 59. A plurality of imaging plates 10 are sequentially loaded into the reading device 1 in the quality confirmation mode by a user. When one imaging plate 10 is inserted through the insertion slot 2a, the reading device 1 in the quality confirmation mode executes steps s3, s4, s21, and s22 in FIG. Obtain an entire image when erased that shows the front side of the image. Then, the reading device 1 executes steps s5 and s6 in FIG. 27 and discharges the processed imaging plate 10. When the processed imaging plate 10 is ejected from the reading device 1, the next imaging plate 10 is loaded into the reading device 1. The reading device 1 in the quality confirmation mode operates in the same manner to acquire an entire image during erasing that shows the front side of the next imaging plate 10, and ejects the processed imaging plate 10. Thereafter, the loading of the imaging plate 10 into the reading device 1 and the ejection of the imaging plate 10 from the reading device 1 are repeated in the same manner, and in the reading device 1 in the quality confirmation mode, a plurality of imaging plates 10 are each A complete image of the plurality of images is obtained when the images are erased. Thereafter, the display control unit 82 causes the display unit 3 to perform a display as shown in FIG. 59 based on the plurality of acquired overall images at the time of erasure. For example, based on the display in FIG. 59, the user identifies and discards the imaging plate 10 in which an abnormality has occurred over a wide range.
また、IP全体反射光像が表示される場合、ユーザは、IP全体反射光像の表示に基づいて、例えば、イメージングプレート10が、通常とは逆の裏向きに読取装置1に入れられて表裏逆にセットされたことを特定することができる。本例では、ユーザは、イメージングプレート10を、読取装置1に対して、原則表向きに入れるが、間違って裏向きに入れることもある。イメージングプレート10が表向きで入れられて正しくセットされた場合、保持部20の支持板21は、上述のように、イメージングプレート10の裏面を支持する。よって、上述のように、励起光L10は、イメージングプレート10の放射線像形成層11に正しく照射される。一方で、イメージングプレート10が誤って裏向き入れられて表裏逆にセットされた場合、支持板21はイメージングプレート10の前面、つまりイメージングプレート10の放射線像形成層11を支持することになる。よって、励起光L10は、イメージングプレート10の裏面に照射される。そして、検出器40は、イメージングプレート10の裏面及びIP像領域外領域R130からの励起光L10の反射光を検出し、その検出結果としての画像信号を出力する。
In addition, when the entire IP reflected light image is displayed, the user may, for example, place the imaging plate 10 face down, opposite to normal, in the reading device 1 and place the imaging plate 10 face down, front and back, based on the display of the entire IP reflected light image. It can be specified that the setting is reversed. In this example, the user generally inserts the imaging plate 10 into the reading device 1 face up, but the user may mistakenly insert the imaging plate 10 face down. When the imaging plate 10 is inserted face up and set correctly, the support plate 21 of the holding unit 20 supports the back side of the imaging plate 10 as described above. Therefore, as described above, the excitation light L10 is correctly irradiated onto the radiation image forming layer 11 of the imaging plate 10. On the other hand, if the imaging plate 10 is mistakenly placed face down and set upside down, the support plate 21 will support the front surface of the imaging plate 10, that is, the radiation image forming layer 11 of the imaging plate 10. Therefore, the excitation light L10 is irradiated onto the back surface of the imaging plate 10. Then, the detector 40 detects the reflected light of the excitation light L10 from the back surface of the imaging plate 10 and the region outside the IP image area R130, and outputs an image signal as the detection result.
以後、イメージングプレート10が裏向きで読取装置1に入れられて表裏逆にセットされた場合の光の反射光の検出結果としての画像信号を裏投入時画像信号と呼ぶ。また、裏投入時画像信号に基づく全体の像を裏投入時全体像と呼ぶ。裏投入時全体像には、放射線像が含まれず、例えば、イメージングプレート10の裏面が写るIP全体反射光像とIP像領域外領域像とが含まれる。また、支持板21がイメージングプレート10の前面を支持することを前面支持と呼び、支持板21がイメージングプレート10の裏面を支持することを裏面支持と呼ぶことがある。
Hereinafter, an image signal as a result of detection of reflected light when the imaging plate 10 is placed face down in the reading device 1 and set upside down will be referred to as a back loading image signal. Further, the entire image based on the image signal at the time of back loading is referred to as the entire image at the time of back loading. The entire image at the time of back loading does not include a radiation image, but includes, for example, an entire IP reflected light image showing the back surface of the imaging plate 10 and an image of a region outside the IP image area. Furthermore, the fact that the support plate 21 supports the front surface of the imaging plate 10 may be referred to as front surface support, and the fact that the support plate 21 supports the back surface of the imaging plate 10 may be referred to as back surface support.
上記の説明では、読取装置1に対して、イメージングプレート10が常に表向きで入れられて正しくセットされているものとしている。つまり、上記の説明では、イメージングプレート10が常に裏面支持されるものとしている。したがって、図14の処理の上記の説明では、ステップs2において放射線像を含む発光時全体像が得られて、ステップs7において放射線像を含む発光時全体像が表示されるという内容となっている。しかしながら、イメージングプレート10が読取装置1に対して裏向きで入れられた場合には、ステップs2で得られる取得全体像、言い換えればステップs2において検出器40が出力する画像信号に基づく全体の像は、イメージングプレート10の裏面が写る裏投入時全体像となる。つまり、ステップs2では、放射線像を含む発光時全体像ではなく、放射線像を含まない裏投入時全体像が得られる。したがって、イメージングプレート10が読取装置1に対して裏向きで入れられた場合、ステップs7では裏投入時全体像が表示される。ステップs2での読取処理では、イメージングプレート10が正しくセットされている場合には、イメージングプレート10から放射線像が読み取られ、イメージングプレート10が表裏逆にセットされている場合には、イメージングプレート10の裏面が写る裏投入時全体像が得られる。
In the above description, it is assumed that the imaging plate 10 is always placed face up in the reading device 1 and set correctly. That is, in the above description, it is assumed that the imaging plate 10 is always supported on the back side. Therefore, in the above description of the process in FIG. 14, the entire light emission image including the radiation image is obtained in step s2, and the entire light emission image including the radiation image is displayed in step s7. However, when the imaging plate 10 is placed face down with respect to the reading device 1, the entire acquired image obtained in step s2, in other words, the entire image based on the image signal output by the detector 40 in step s2 is , the entire image when the back side is inserted shows the back side of the imaging plate 10. That is, in step s2, the entire image at the time of back-loading, which does not include the radiation image, is obtained instead of the entire image at the time of light emission including the radiation image. Therefore, when the imaging plate 10 is inserted face down into the reading device 1, the entire image is displayed at step s7 when the imaging plate 10 is inserted face down. In the reading process in step s2, if the imaging plate 10 is set correctly, the radiation image is read from the imaging plate 10, and if the imaging plate 10 is set upside down, the radiation image is read from the imaging plate 10. When inserting the back side, you can get a complete image of the back side.
同様に、イメージングプレート10が読取装置1に対して裏向きで入れられた場合、上記の図24の処理では、ステップs2において裏投入時全体像が得られ、ステップs22において得られる消去時全体像は裏投入時全体像となる。したがって、イメージングプレート10が読取装置1に対して裏向きで入れられた場合、ステップs27では、2つの裏投入時全体像が表示される。イメージングプレート10の裏面が写る裏投入時全体像も、消去済みイメージングプレート10が保持部20で保持されているときに得られる消去時全体像も、放射線像は含まず、反射光像だけで構成されている。
Similarly, when the imaging plate 10 is inserted face down into the reading device 1, in the process shown in FIG. is the overall image when the back is inserted. Therefore, when the imaging plate 10 is inserted face down into the reading device 1, in step s27, two whole images are displayed when the imaging plate 10 is inserted face down. Both the entire image when the back is inserted, which shows the back side of the imaging plate 10, and the entire image when erased, which is obtained when the erased imaging plate 10 is held by the holding unit 20, do not include radiation images and are composed only of reflected light images. has been done.
図60は、裏投入時全体像に含まれるIP全体反射光像301の一例を示す概略図である。本例では、イメージングプレート10の裏面には、当該裏面に特有の情報(裏面特有情報ともいう)が示されている。裏面特有情報は、イメージングプレート10の前面には示されない情報であるとも言える。また、裏面特有情報は、イメージングプレート10の裏面を識別するための裏面識別情報あるいは裏面識別子であるとも言える。裏面特有情報には、例えば、イメージングプレート10のサイズの種類を示す文字、イメージングプレート10の製造会社を示す文字及びバーコード等が含まれる。裏面特有情報に含まれるバーコードは、例えば、イメージングプレート10のシリアル番号を示してもよい。
FIG. 60 is a schematic diagram showing an example of an IP total reflection light image 301 included in the total image at the time of reverse insertion. In this example, information specific to the back surface (also referred to as back surface specific information) is shown on the back surface of the imaging plate 10. It can also be said that the back side specific information is information that is not shown on the front side of the imaging plate 10. Further, it can be said that the back surface specific information is back surface identification information or a back surface identifier for identifying the back surface of the imaging plate 10. The back side specific information includes, for example, characters indicating the type of size of the imaging plate 10, characters indicating the manufacturer of the imaging plate 10, a bar code, and the like. The barcode included in the back side unique information may indicate the serial number of the imaging plate 10, for example.
図60に示されるように、イメージングプレート10の裏面が写るIP全体反射光像301には、裏面特有情報の像302が含まれる。像302には、イメージングプレート10のサイズの種類を示す文字の像304、イメージングプレート10の製造会社を示す文字の像305及びバーコードの像303が含まれる。
As shown in FIG. 60, the IP overall reflected light image 301 showing the back surface of the imaging plate 10 includes an image 302 of information specific to the back surface. The image 302 includes a character image 304 indicating the type of size of the imaging plate 10, a character image 305 indicating the manufacturer of the imaging plate 10, and a barcode image 303.
表示部3が裏投入時全体像を表示する場合、ユーザは、表示される裏投入時全体像に含まれるIP全体反射光像301に基づいて、イメージングプレート10が裏向きに読取装置1に入れられたこと、つまりイメージングプレート10が表裏逆にセットされたことを特定することができる。具体的には、ユーザは、表示されるIP全体反射光像301に含まれる、裏面特有情報の像302を認識することによって、イメージングプレート10が裏向きに読取装置1に入れられたことを特定することができる。このようにして、ユーザは、イメージングプレート10が読取装置1に正しく挿入されなかったことを認識することができる。
When the display unit 3 displays the entire image at the time of reverse loading, the user can check whether the imaging plate 10 is inserted face down into the reading device 1 based on the entire IP reflected light image 301 included in the displayed overall image at the time of reverse loading. In other words, it can be determined that the imaging plate 10 has been set upside down. Specifically, the user identifies that the imaging plate 10 has been placed face down into the reading device 1 by recognizing the image 302 of back side specific information included in the displayed IP overall reflected light image 301. can do. In this way, the user can recognize that the imaging plate 10 has not been correctly inserted into the reading device 1.
なお、見方を変えれば、ユーザは、表示部3に表示されるIP全体反射光像に、裏面特有情報の像が含まれないことを認識することによって、イメージングプレート10が正しく表向きに読取装置1に入れられたこと、つまりイメージングプレート10が正しくセットされたことを特定することができるともいえる。
From a different point of view, the user can recognize that the image of the back surface specific information is not included in the entire IP reflected light image displayed on the display unit 3, so that the imaging plate 10 can be correctly oriented face-up with the reader 1. It can also be said that it is possible to specify that the imaging plate 10 has been placed in the image plate 10, that is, that the imaging plate 10 has been correctly set.
イメージングプレート10の裏面に示される裏面特有情報は上記の限りではない。例えば、裏面特有情報には二次元バーコードが含まれてもよい。また、裏面特有情報には、イメージングプレート10の裏面の四隅の少なくとも一つに示された文字、記号あるいは図形が含まれてもよい。また、裏面特有情報は、イメージングプレート10の裏面を識別するためだけの必要最小限の情報であってもよい。
The back surface specific information shown on the back surface of the imaging plate 10 is not limited to the above. For example, the back side specific information may include a two-dimensional barcode. Further, the back surface specific information may include characters, symbols, or figures shown in at least one of the four corners of the back surface of the imaging plate 10. Further, the back surface specific information may be the minimum necessary information only for identifying the back surface of the imaging plate 10.
画像処理部81は、消去時全体像から、IP全体反射光像の少なくとも一部を含む第2切出像を切り出す場合と同様に、裏投入時全体像から、IP全体反射光像301の少なくとも一部を切出像として切り出してもよい。この場合、表示制御部82は、裏投入時全体像から切り出されたIP全体反射光像301の少なくとも一部を表示部3に表示させてもよい。これにより、ユーザは、表示されるIP全体反射光像301の少なくとも一部に基づいて、イメージングプレート10が誤って裏向きに読取装置1に入れられたことを特定することができる。
The image processing unit 81 cuts out at least a second cut-out image including at least a part of the entire IP reflected light image from the entire image at the time of erasing, as well as when cutting out a second cropped image including at least a part of the entire IP reflected light image from the entire image at the time of erasing. A portion may be cut out as a cutout image. In this case, the display control unit 82 may cause the display unit 3 to display at least a portion of the entire IP reflected light image 301 cut out from the entire image at the time of reverse insertion. Thereby, the user can identify that the imaging plate 10 has been mistakenly placed face down into the reading device 1 based on at least a portion of the displayed IP total reflected light image 301.
上記の例では、イメージングプレート10が裏向きに読取装置1に入れられたことをユーザが特定するために、イメージングプレート10の裏面に示される裏面特有情報が使用されているが、イメージングプレート10の前面に示される、当該前面に特有の情報(前面特有情報ともいう)が使用されてもよい。前面特有情報は、イメージングプレート10の裏面には示されない情報であるとも言える。また、前面特有情報は、イメージングプレート10の前面を識別するための前面識別情報あるいは前面識別子であるとも言える。
In the above example, back-side specific information shown on the back side of the imaging plate 10 is used to allow the user to identify that the imaging plate 10 has been placed face down in the reading device 1, but information specific to the front side (also called front-side specific information) shown on the front side of the imaging plate 10 may also be used. Front-side specific information can also be said to be information that is not shown on the back side of the imaging plate 10. In addition, front-side specific information can also be said to be front-side identification information or a front-side identifier for identifying the front side of the imaging plate 10.
図61は、前面特有情報1000が前面10xに示されたイメージングプレート10の一例を示す概略図である。図61に示されるように、前面特有情報1000には文字が含まれてもよい。前面特有情報1000に含まれる文字は、イメージングプレート10の製造会社を示す文字、例えば、イメージングプレート10の製造会社の名前の頭文字であってもよい。前面特有情報1000は、イメージングプレート10の前面10xを識別するためだけの必要最小限の情報であってもよい。
FIG. 61 is a schematic diagram showing an example of the imaging plate 10 in which the front surface specific information 1000 is shown on the front surface 10x. As shown in FIG. 61, the front specific information 1000 may include characters. The characters included in the front surface specific information 1000 may be characters indicating the manufacturing company of the imaging plate 10, for example, the initials of the name of the manufacturing company of the imaging plate 10. The front surface specific information 1000 may be the minimum necessary information only for identifying the front surface 10x of the imaging plate 10.
イメージングプレート10の前面10xでは、放射線像形成層11が、前面特有情報1000を避けて設けられる。本例では、イメージングプレート10からの発光光L2及び反射光の検出に基づく発光時全体像には、前面特有情報1000の反射光像が含まれる。ユーザは、例えば、表示部3に表示される取得全体像あるいは切出像に、前面特有情報1000の反射光像が含まれないことを確認することによって、イメージングプレート10が誤って裏向きに読取装置1に入れられこと、つまりイメージングプレート10が表裏逆にセットされたことを特定することができる。また、ユーザは、表示部3に表示される取得全体像あるいは切出像に、前面特有情報1000の反射光像が含まれることを確認することによって、イメージングプレート10が正しく表向きに読取装置1に入れられこと、つまりイメージングプレート10が正しくセットされたことを特定することができる。
On the front surface 10x of the imaging plate 10, the radiation image forming layer 11 is provided so as to avoid the front surface specific information 1000. In this example, the overall image at the time of emission based on the detection of the emitted light L2 and reflected light from the imaging plate 10 includes a reflected light image of the front surface specific information 1000. For example, by confirming that the acquired overall image or the cut-out image displayed on the display unit 3 does not include a reflected light image of the front surface specific information 1000, the user can determine that the imaging plate 10 has been mistakenly inserted face down into the reading device 1, that is, that the imaging plate 10 has been set upside down. In addition, by confirming that the acquired overall image or the cut-out image displayed on the display unit 3 includes a reflected light image of the front surface specific information 1000, the user can determine that the imaging plate 10 has been correctly inserted face up into the reading device 1, that is, that the imaging plate 10 has been correctly set.
なお、前面特有情報1000は図61の例に限られない。また、イメージングプレート10の前面に前面特有情報1000が示されるとともに、イメージングプレート10の裏面に裏面特有情報が示されてもよい。
Note that the front specific information 1000 is not limited to the example shown in FIG. 61. Furthermore, the front side specific information 1000 may be displayed on the front side of the imaging plate 10, and the back side specific information may be displayed on the back side of the imaging plate 10.
また、イメージングプレート10が裏向きに読取装置1に入れられたこと、つまりイメージングプレート10が表裏逆にセットされたことをユーザが特定するための凸部12がイメージングプレート10に設けられてもよい。図62は、イメージングプレート10に凸部12が設けられた様子の一例を示す図である。図62には、イメージングプレート10の前面10x側が示されている。図62の例では、イメージングプレート10の周縁に凸部12が設けられている。凸部12は、イメージングプレート10の周縁を構成する4辺のうちの一辺において中央部を避けて設けられている。図62の例では、凸部12は、イメージングプレート10の短辺において中央部を避けて設けられている。凸部12の表面には、放射線像形成層11が形成されておらず、黒アルマイト処理も行われていない。凸部12の表面では、例えば、イメージングプレート10の表面と同程度に励起光L10が反射される。イメージングプレート10が表裏逆にセットされているか否かにかかわらず、検出器40から出力される画像信号に基づく取得全体像には、凸部12の反射光像が含まれる。なお、凸部12は、イメージングプレート10の長辺に設けられてもよい。
Furthermore, the imaging plate 10 may be provided with a convex portion 12 for the user to identify that the imaging plate 10 has been placed face down in the reading device 1, that is, that the imaging plate 10 has been set upside down. . FIG. 62 is a diagram showing an example of how the imaging plate 10 is provided with the convex portions 12. FIG. 62 shows the front side 10x of the imaging plate 10. In the example shown in FIG. 62, a convex portion 12 is provided on the periphery of the imaging plate 10. The convex portion 12 is provided on one side of the four sides constituting the periphery of the imaging plate 10, avoiding the center portion. In the example shown in FIG. 62, the convex portions 12 are provided on the short sides of the imaging plate 10, avoiding the central portion. The radiation image forming layer 11 is not formed on the surface of the convex portion 12, and the black alumite treatment is not performed. For example, the excitation light L10 is reflected on the surface of the convex portion 12 to the same extent as on the surface of the imaging plate 10. Regardless of whether or not the imaging plate 10 is set upside down, the overall image obtained based on the image signal output from the detector 40 includes the reflected light image of the convex portion 12 . Note that the convex portions 12 may be provided on the long sides of the imaging plate 10.
このように、凸部12が、イメージングプレート10の一辺において中央部を避けて設けられていることにより、イメージングプレート10が裏面支持されている場合と、イメージングプレート10が前面支持されている場合とで、イメージングプレート10を光源30側から見たときの凸部12の位置が常に異なるようになる。
In this way, the convex portion 12 is provided on one side of the imaging plate 10, avoiding the center, so that the position of the convex portion 12 when the imaging plate 10 is viewed from the light source 30 side is always different when the imaging plate 10 is supported on the back side and when the imaging plate 10 is supported on the front side.
図63は、図62と同様に、イメージングプレート10を前面10x側から見た様子の一例を示す概略図である。図63には、図62に示されるイメージングプレート10をその主面に平行に180度回転させた様子が示されている。図64及び65は、イメージングプレート10をその裏面10y側から見た様子の一例を示す概略図である。図65には、図64に示されるイメージングプレート10がその主面に平行に180度回転させた様子が示されている。
Similar to FIG. 62, FIG. 63 is a schematic diagram showing an example of the imaging plate 10 viewed from the front side 10x. FIG. 63 shows the imaging plate 10 shown in FIG. 62 rotated 180 degrees parallel to its main surface. 64 and 65 are schematic diagrams showing an example of the imaging plate 10 viewed from the back surface 10y side. FIG. 65 shows the imaging plate 10 shown in FIG. 64 rotated 180 degrees parallel to its main surface.
図62~65に示されるように、イメージングプレート10を前面10x側から見た場合の凸部12の位置と、イメージングプレート10を裏面10y側から見た場合の凸部12の位置とは、必ず異なる。図62及び63に示されるように、イメージングプレート10を前面10x側から見た場合、凸部12は、それが設けられた一辺の反時計回り方向の隣の辺(図62では下側の辺)よりも時計回り方向の隣の辺(図62では上側の辺)に近い位置に存在する。これに対して、図64及び65に示されるように、イメージングプレート10を裏面10y側から見た場合、凸部12は、それが設けられた一辺の時計回りの隣の辺(図64では上側の辺)よりも反時計回り方向の隣の辺(図64では下側の辺)に近い位置に存在する。
As shown in FIGS. 62 to 65, the position of the convex portion 12 when the imaging plate 10 is viewed from the front side 10x and the position of the convex portion 12 when the imaging plate 10 is viewed from the back side 10y are always the same. different. As shown in FIGS. 62 and 63, when the imaging plate 10 is viewed from the front surface 10x side, the protrusion 12 is located on the side next to the side in the counterclockwise direction on which it is provided (the lower side in FIG. 62). ) in the clockwise direction (the upper side in FIG. 62). On the other hand, as shown in FIGS. 64 and 65, when the imaging plate 10 is viewed from the rear surface 10y side, the protrusion 12 is located on the side clockwise next to the side on which it is provided (the upper side in FIG. 64). (the lower side in FIG. 64) than the adjacent side in the counterclockwise direction (the lower side in FIG. 64).
このように、凸部12が、イメージングプレート10の一辺において中央部を避けて設けられる場合、イメージングプレート10を前面10x側から見た場合と、イメージングプレート10を裏面10y側から見た場合とでは、凸部12の位置は必ず異なるようになる。したがって、イメージングプレート10が裏面支持されている場合と、イメージングプレート10が前面支持されている場合とでは、イメージングプレート10を光源30側から見たときの凸部12の位置は必ず異なるようになる。言い換えれば、イメージングプレート10が表裏逆にセットされている場合と、イメージングプレート10が正しくセットされている場合とでは、イメージングプレート10を光源30側から見たときの凸部12の位置は必ず異なるようになる。よって、イメージングプレート10が裏面支持されている場合に得られる発光時全体像あるいは消去時全体像での凸部12の像(つまり、反射光像)の位置と、イメージングプレート10が前面支持されている場合に得られる裏投入時全体像での凸部12の像の位置とは常に異なる。これにより、ユーザは、表示部3に表示される取得全体像での凸部12の像の位置を確認することによって、イメージングプレート10が前面支持されていること、つまり、イメージングプレート10が裏向きに読取装置1に入れられたことを容易に特定することができる。言い換えれば、ユーザは、表示部3に表示される取得全体像に写る凸部12の位置を確認することによって、イメージングプレート10が表裏逆にセットされたことを容易に特定することができる。見方を変えれば、ユーザは、表示部3に表示される取得全体像に写る凸部12の位置を確認することによって、イメージングプレート10が正しくセットされたを容易に特定することができるともいえる。
In this way, when the convex portion 12 is provided on one side of the imaging plate 10 while avoiding the center part, the imaging plate 10 is different when viewed from the front surface 10x side and when the imaging plate 10 is viewed from the back surface 10y side. , the positions of the convex portions 12 are always different. Therefore, the position of the convex portion 12 when the imaging plate 10 is viewed from the light source 30 side is always different between when the imaging plate 10 is supported on the back side and when the imaging plate 10 is supported on the front side. . In other words, the position of the convex portion 12 when the imaging plate 10 is viewed from the light source 30 side is always different between when the imaging plate 10 is set upside down and when the imaging plate 10 is set correctly. It becomes like this. Therefore, the position of the image of the convex portion 12 (that is, the reflected light image) in the entire image during light emission or the entire image during erasure obtained when the imaging plate 10 is supported on the back side is different from that when the imaging plate 10 is supported on the front side. The position of the image of the convex portion 12 is always different from the position of the image of the convex portion 12 in the overall image at the time of reverse insertion obtained when Thereby, by confirming the position of the image of the convex portion 12 in the entire acquired image displayed on the display unit 3, the user can confirm that the imaging plate 10 is supported from the front, that is, the imaging plate 10 is facing down. It can be easily identified that the document was inserted into the reading device 1 at the time of writing. In other words, the user can easily identify that the imaging plate 10 has been set upside down by checking the position of the convex portion 12 in the acquired overall image displayed on the display unit 3. From a different perspective, it can be said that the user can easily identify whether the imaging plate 10 has been set correctly by checking the position of the convex portion 12 in the acquired overall image displayed on the display unit 3.
なお、凸部12は、図66に示されるように、イメージングプレート10に対して着脱可能であってもよい。
In addition, the protrusion 12 may be detachable from the imaging plate 10, as shown in FIG. 66.
また、イメージングプレート10の周縁には複数の凸部12が設けられてよい。図67及び68は、イメージングプレート10の周縁に2つの凸部12が設けられている様子の一例を示す概略図である。図67にはイメージングプレート10を前面10x側から見た様子が示されており、図68にはイメージングプレート10を裏面10y側から見た様子が示されている。図67及び68の例では、2つの凸部12は、イメージングプレート10の互いに対向する2つの辺にそれぞれ設けられている。また、2つの凸部12は、イメージングプレート10を前面10x側(あるいは裏面10y側)から見た場合、前面10x(あるいは裏面10y)の中心に対して点対称の位置に存在する。2つの凸部12が、図67及び68に示されるようにイメージングプレート10の周縁に設けられる場合であっても、イメージングプレート10が裏面支持されている場合に得られる発光時全体像あるいは消去時全体像での凸部12の像の位置と、イメージングプレート10が前面支持されている場合に得られる裏投入時全体像での凸部12の像の位置とは常に異なるようになる。よって、ユーザは、表示部3に表示される取得全体像での凸部12の像の位置を確認することによって、イメージングプレート10が裏向きに読取装置1に入れられたこと、つまりイメージングプレート10が表裏逆にセットされたことを容易に特定することができる。また、ユーザは、表示部3に表示される取得全体像での凸部12の像の位置を確認することによって、イメージングプレート10が表向きに読取装置1に入れられたこと、つまりイメージングプレート10が正しくセットされたことを容易に特定することができる。
Further, a plurality of convex portions 12 may be provided on the periphery of the imaging plate 10. 67 and 68 are schematic diagrams showing an example of how two convex portions 12 are provided on the periphery of the imaging plate 10. FIG. 67 shows the imaging plate 10 viewed from the front side 10x, and FIG. 68 shows the imaging plate 10 viewed from the back side 10y. In the examples shown in FIGS. 67 and 68, the two convex portions 12 are provided on two opposing sides of the imaging plate 10, respectively. Furthermore, when the imaging plate 10 is viewed from the front surface 10x side (or the back surface 10y side), the two convex portions 12 are located at points symmetrical with respect to the center of the front surface 10x (or the back surface 10y). Even if the two convex portions 12 are provided at the periphery of the imaging plate 10 as shown in FIGS. 67 and 68, the overall image during light emission or during erasure that can be obtained when the imaging plate 10 is supported on the back side. The position of the image of the convex portion 12 in the overall image is always different from the position of the image of the convex portion 12 in the overall image when the back is inserted, which is obtained when the imaging plate 10 is supported from the front. Therefore, by confirming the position of the image of the convex portion 12 in the entire acquired image displayed on the display unit 3, the user can confirm that the imaging plate 10 has been placed face down into the reading device 1, that is, the imaging plate 10 It can be easily determined that the card has been set upside down. In addition, by confirming the position of the image of the convex portion 12 in the entire acquired image displayed on the display unit 3, the user can confirm that the imaging plate 10 has been inserted into the reading device 1 face up, that is, the imaging plate 10 is It can be easily determined that it has been set correctly.
なお、2つの凸部12のそれぞれは、図69に示されるように、イメージングプレート10に対して着脱可能であってもよい。また、2つの凸部12の一方だけが、イメージングプレート10に対して着脱可能であってもよい。また、イメージングプレート10に少なくとも一つの凸部12が設けられる場合に、イメージングプレート10の前面10xに前面特有情報が示されてもよいし、イメージングプレート10の裏面10yに裏面特有情報が示されてもよい。
Note that each of the two convex portions 12 may be removably attached to the imaging plate 10, as shown in FIG. 69. Further, only one of the two convex portions 12 may be removable from the imaging plate 10. Further, when the imaging plate 10 is provided with at least one convex portion 12, front surface specific information may be shown on the front surface 10x of the imaging plate 10, and back surface specific information may be shown on the back surface 10y of the imaging plate 10. Good too.
以上のように、読取装置1が、発光光L2の検出に基づく放射線像と、反射光の検出に基づく反射光像とを得ることができることによって、読取装置1の利便性が向上する。
As described above, the convenience of the reading device 1 is improved because the reading device 1 can obtain a radiation image based on the detection of the emitted light L2 and a reflected light image based on the detection of the reflected light.
上記の例では、励起光L10が照射される対象物が、イメージングプレート10であったが、イメージングプレート10以外であってもよい。励起光L10が照射される対象物は、例えば、読取装置1がイメージングプレート10から読み取った放射線像の画質評価のための評価用パターンを表面に有する評価用部材であってもよい。
In the above example, the object to which the excitation light L10 is irradiated was the imaging plate 10, but the object may be other than the imaging plate 10. The object to which the excitation light L10 is irradiated may be, for example, an evaluation member having an evaluation pattern on its surface for evaluating the image quality of the radiation image read from the imaging plate 10 by the reading device 1.
評価用部材は、例えば、イメージングプレート10と同様の大きさ及び形状を有しており、読取装置1の挿入口2aから読取装置1に入れられる。読取装置1に入れられた評価用部材は、イメージングプレート10と同様に保持部20で保持される。評価用部材に、放射線像形成層11を形成してもよいし、形成しなくてもよい。評価用部材に放射線像形成層11が形成される場合には、放射線像形成層11には放射線のエネルギーは蓄積されない。
The evaluation member has, for example, the same size and shape as the imaging plate 10, and is inserted into the reading device 1 through the insertion port 2a of the reading device 1. The evaluation member placed in the reading device 1 is held by the holding section 20 similarly to the imaging plate 10. The radiation image forming layer 11 may or may not be formed on the evaluation member. When the radiation image forming layer 11 is formed on the evaluation member, no radiation energy is accumulated in the radiation image forming layer 11.
保持部20が評価用部材を保持する場合、上述の照射対象物1200は、保持部20と、保持部20で保持された評価用部材とで構成される。以後、照射対象物1200の支持側主面1200aにおいて、そこからの被作用光L2が形成する像が評価用部材の像である領域を、評価用部材像領域あるいは単に部材像領域と呼ぶ。評価用部材像領域は、支持側主面1200aにおいて、評価用部材が存在する評価用部材存在領域ともいえる。また、検出範囲R110において部材像領域を除いた領域を評価用部材像領域外領域あるいは単に部材像領域外領域と呼ぶ。評部材像領域はIP像領域R100に対応し、評価部材像領域外領域(言い換えれば部材像領域外領域)はIP像領域外領域R130に対応する。
When the holding part 20 holds the evaluation member, the above-mentioned irradiation target 1200 is composed of the holding part 20 and the evaluation member held by the holding part 20. Hereinafter, in the support-side main surface 1200a of the irradiation target 1200, the area where the image formed by the actuated light L2 therefrom is the image of the evaluation member will be referred to as the evaluation member image area or simply the member image area. The evaluation member image area can also be said to be an evaluation member presence area where the evaluation member exists on the support side main surface 1200a. Further, the area excluding the member image area in the detection range R110 is referred to as an area outside the member image area for evaluation or simply an area outside the member image area. The evaluation member image area corresponds to the IP image area R100, and the area outside the evaluation member image area (in other words, the area outside the member image area) corresponds to the IP image area outside R130.
図70~73は評価用部材900の一例を示す概略図である。図70には、検出放射線像の解像度を評価するための評価用部材900(解像度評価用部材900Aともいう)が示されている。図71には、検出放射線像の幾何学的精度を評価するための評価用部材900(幾何学的精度評価用部材900Bともいう)が示されている。図72には、検出放射線像のコントラストを評価するための評価用部材900(コントラスト評価用部材900Cともいう)が示されている。図73には、検出放射線像のアーチファクトを評価するための評価用部材900(アーチファクト評価用部材900Dともいう)が示されている。
70 to 73 are schematic diagrams showing an example of the evaluation member 900. FIG. 70 shows an evaluation member 900 (also referred to as resolution evaluation member 900A) for evaluating the resolution of a detected radiation image. FIG. 71 shows an evaluation member 900 (also referred to as a geometric accuracy evaluation member 900B) for evaluating the geometric accuracy of a detected radiation image. FIG. 72 shows an evaluation member 900 (also referred to as contrast evaluation member 900C) for evaluating the contrast of a detected radiation image. FIG. 73 shows an evaluation member 900 (also referred to as artifact evaluation member 900D) for evaluating artifacts in detected radiation images.
図70に示されるように、解像度評価用部材900Aの前面901aには、検出放射線像の解像度を評価するための解像度評価用パターン902aが示されている。解像度評価用パターン902aとしては、例えばラインペアチャートが採用される。
As shown in FIG. 70, a resolution evaluation pattern 902a for evaluating the resolution of the detected radiation image is shown on the front surface 901a of the resolution evaluation member 900A. For example, a line pair chart is adopted as the resolution evaluation pattern 902a.
図71に示されるように、幾何学的精度評価用部材900Bの前面901bには、検出放射線像の幾何学的精度を評価するための幾何学的精度評価用パターン902bが示されている。幾何学的精度評価用パターン902bとしては、例えば、複数の小さな点が格子状に並べられたパターンが採用される。
As shown in FIG. 71, a geometric accuracy evaluation pattern 902b for evaluating the geometric accuracy of the detected radiation image is shown on the front surface 901b of the geometric accuracy evaluation member 900B. As the geometric accuracy evaluation pattern 902b, for example, a pattern in which a plurality of small dots are arranged in a grid pattern is adopted.
図72に示されるように、コントラスト評価用部材900Cの前面901cには、検出放射線像のコントラストを評価するためのコントラスト評価用パターン902cが示されている。コントラスト評価用パターン902cとしては、例えば、グレースケールで表現された、明るさ(言い換えれば濃淡)の異なる複数の方形パターンが並べられたものが採用される。
As shown in FIG. 72, a contrast evaluation pattern 902c for evaluating the contrast of the detected radiation image is shown on the front surface 901c of the contrast evaluation member 900C. As the contrast evaluation pattern 902c, for example, a plurality of rectangular patterns expressed in gray scale and having different brightness (in other words, shading) are arranged.
図73に示されるように、アーチファクト評価用部材900Dの前面901dには、検出放射線像のアーチファクトを評価するためのアーチファクト評価用パターン902dが示されている。アーチファクト評価用パターン902dとしては、例えば、単色の一様なパターンが採用される。例えば、真っ白なパターンがアーチファクト評価用パターン902dとして採用されてもよい。
As shown in FIG. 73, an artifact evaluation pattern 902d for evaluating artifacts in the detected radiation image is shown on the front surface 901d of the artifact evaluation member 900D. For example, a monochrome uniform pattern is adopted as the artifact evaluation pattern 902d. For example, a pure white pattern may be adopted as the artifact evaluation pattern 902d.
読取装置1では、評価用部材900は、その評価用パターンが光源30側に向くように保持部20で保持される。言い換えれば、評価用部材900は、その前面が光源30側に向くように保持部20で保持される。これより、評価用部材900の評価用パターンに対して励起光L10が照射される。そして、検出器40は、評価用部材900の前面(言い換えれば、部材像領域)及び部材像領域外領域からの励起光L10の反射光を検出し、その検出結果としての画像信号を出力する。
In the reading device 1, the evaluation member 900 is held by the holding unit 20 so that the evaluation pattern faces the light source 30 side. In other words, the evaluation member 900 is held by the holding section 20 so that its front surface faces the light source 30 side. From this, the evaluation pattern of the evaluation member 900 is irradiated with the excitation light L10. Then, the detector 40 detects the reflected light of the excitation light L10 from the front surface of the evaluation member 900 (in other words, the member image area) and the area outside the member image area, and outputs an image signal as the detection result.
以後、評価用部材900が保持部20で保持されている場合の光の反射光の検出結果としての画像信号を評価用画像信号と呼ぶ。また、評価用画像信号に基づく全体の像を評価用全体像と呼ぶ。評価用全体像には、評価用パターンが写っており、評価用パターンの反射光像(以後、評価用パターン像ともいう)が含まれる。評価用全体像には放射線像は含まれない。評価用全体像は反射光像のみで構成されている。
Hereinafter, an image signal as a detection result of reflected light when the evaluation member 900 is held by the holding section 20 will be referred to as an evaluation image signal. Furthermore, the entire image based on the evaluation image signal is referred to as the evaluation overall image. The overall evaluation image shows the evaluation pattern and includes a reflected light image of the evaluation pattern (hereinafter also referred to as evaluation pattern image). The overall image for evaluation does not include radiological images. The overall image for evaluation consists only of reflected light images.
図74は、評価用パターンが写る評価用全体像を読取装置1が取得する場合の読取装置1の動作の一例を示すフローチャートである。筐体2の挿入口2aから挿入された評価用部材900が保持部20で保持され、操作部4がユーザからの所定の操作を受け付けると、図74に示されるように、ステップs51が実行される。ステップs51では、駆動部50が、駆動制御部83による制御によって、保持部20を読取開始位置に移動させる。ステップs51の後、ステップs52が実行される。
FIG. 74 is a flowchart illustrating an example of the operation of the reading device 1 when the reading device 1 acquires the entire image for evaluation in which the evaluation pattern is reflected. When the evaluation member 900 inserted through the insertion opening 2a of the housing 2 is held by the holding section 20 and the operation section 4 receives a predetermined operation from the user, step s51 is executed as shown in FIG. Ru. In step s51, the drive section 50 moves the holding section 20 to the reading start position under the control of the drive control section 83. After step s51, step s52 is executed.
ステップs52では、光源30が評価用部材900の前面及び外側領域に対して励起光L10を照射する。そして、検出器40が、評価用部材900の前面及び外側領域での励起光L10の反射光を検出し、その検出結果としての評価用画像信号を出力する。評価用画像信号はグレースケールの画像信号である。
In step s52, the light source 30 irradiates the front surface and outer region of the evaluation member 900 with excitation light L10. Then, the detector 40 detects the reflected light of the excitation light L10 on the front and outer regions of the evaluation member 900, and outputs an evaluation image signal as the detection result. The evaluation image signal is a grayscale image signal.
ステップs52の後、ステップs53において、駆動部50は、駆動制御部83による制御によって、保持部20を排出位置に移動させる。次にステップs54において、評価用部材900は筐体2の取出口2bに排出される。そしてステップs55において、表示制御部82は、評価用画像信号に基づいて評価用全体像を表示部3に例えばグレースケール表示させる。読取装置1に解像度評価用部材900Aが入れられると、ステップs55では、解像度評価用パターン902aの像を含む評価用全体像が表示される。読取装置1に幾何学的精度評価用部材900Bが入れられると、ステップs55では、幾何学的精度評価用パターン902bの像を含む評価用全体像が表示される。読取装置1にコントラスト評価用部材903Cが入れられると、ステップs55では、コントラスト評価用パターン902cの像を含む評価用全体像が表示される。読取装置1にアーチファクト評価用部材900Dが入れられると、ステップs55では、アーチファクト評価用パターン902dの像を含む評価用全体像が表示される。なお、ステップs55は、ステップs52の後であれば、いつでも実行されてもよい。
After step s52, in step s53, the drive section 50 moves the holding section 20 to the ejection position under the control of the drive control section 83. Next, in step s54, the evaluation member 900 is discharged to the outlet 2b of the casing 2. Then, in step s55, the display control section 82 causes the display section 3 to display, for example, a gray scale image for evaluation based on the evaluation image signal. When the resolution evaluation member 900A is inserted into the reading device 1, in step s55, an overall image for evaluation including an image of the resolution evaluation pattern 902a is displayed. When the geometric accuracy evaluation member 900B is inserted into the reading device 1, in step s55, an overall image for evaluation including an image of the geometric accuracy evaluation pattern 902b is displayed. When the contrast evaluation member 903C is inserted into the reading device 1, in step s55, an overall image for evaluation including an image of the contrast evaluation pattern 902c is displayed. When the artifact evaluation member 900D is inserted into the reading device 1, in step s55, an overall image for evaluation including an image of the artifact evaluation pattern 902d is displayed. Note that step s55 may be executed at any time after step s52.
ユーザは、表示部3に表示される評価用全体像に含まれる評価用パターン像に基づいて、検出放射線像の画質を評価することができる。つまり、ユーザは、表示部3に表示される評価用パターン像に基づいて、検出放射線像の画質を評価することができる。例えば、ユーザは、表示部3に表示される解像度評価用パターン902aの像に基づいて、検出放射線像の解像度を評価する。また、ユーザは、表示部3に表示される幾何学的精度評価用パターン902bの像に基づいて、検出放射線像の幾何学的精度を評価する。また、ユーザは、表示部3に表示されるコントラスト評価用パターン902cの像に基づいて、検出放射線像のコントラストを評価する。また、ユーザは、表示部3に表示されるアーチファクト評価用パターン902dの像に基づいて、検出放射線像のアーチファクトを評価する。
The user can evaluate the image quality of the detected radiation image based on the evaluation pattern image included in the overall evaluation image displayed on the display unit 3. That is, the user can evaluate the image quality of the detected radiation image based on the evaluation pattern image displayed on the display unit 3. For example, the user evaluates the resolution of the detected radiation image based on the image of the resolution evaluation pattern 902a displayed on the display unit 3. Further, the user evaluates the geometric accuracy of the detected radiation image based on the image of the geometric accuracy evaluation pattern 902b displayed on the display unit 3. Further, the user evaluates the contrast of the detected radiation image based on the image of the contrast evaluation pattern 902c displayed on the display unit 3. Further, the user evaluates the artifact of the detected radiation image based on the image of the artifact evaluation pattern 902d displayed on the display unit 3.
このように、本例では、検出放射線像を得るための光源30及び検出器40が使用されて、評価用部材900の前面からの励起光L10の反射光の検出結果としての評価用画像信号が得られている。このため、評価用画像信号に基づく反射光像に含まれる評価用パターン像に基づいて、検出放射線像の画質を適切に評価することができる。
In this way, in this example, the light source 30 and the detector 40 for obtaining a detected radiation image are used, and the evaluation image signal as the detection result of the reflected light of the excitation light L10 from the front surface of the evaluation member 900 is obtained. It has been obtained. Therefore, the image quality of the detected radiation image can be appropriately evaluated based on the evaluation pattern image included in the reflected light image based on the evaluation image signal.
評価用部材900は、例えば、紙、樹脂あるいは金属で構成されてもよい。また、評価用パターンは、評価用部材900の前面に印刷されて形成されてもよい。また、解像度評価用パターン902a及び幾何学的精度評価用パターン902bの少なくとも一方は、評価用部材900の前面での凹凸で構成されてもよい。評価用パターンが評価用部材900の前面に印刷される場合には、印刷技術によって精度の良い評価用パターンを得ることができる。よって、検出放射線像の画質評価をより適切に行うことができる。また、評価用部材900は、評価用パターンが印刷された印刷紙で構成されてもよい。この場合、安価な評価用部材900を用いて検出放射線像の画質評価を行うことができる。評価用部材900は厚紙で構成されてもよい。
The evaluation member 900 may be made of paper, resin, or metal, for example. Moreover, the evaluation pattern may be printed and formed on the front surface of the evaluation member 900. Furthermore, at least one of the resolution evaluation pattern 902a and the geometric accuracy evaluation pattern 902b may be configured with unevenness on the front surface of the evaluation member 900. When the evaluation pattern is printed on the front surface of the evaluation member 900, a highly accurate evaluation pattern can be obtained using printing technology. Therefore, the image quality of the detected radiation image can be evaluated more appropriately. Furthermore, the evaluation member 900 may be made of printed paper on which an evaluation pattern is printed. In this case, the image quality of the detected radiation image can be evaluated using the inexpensive evaluation member 900. The evaluation member 900 may be made of cardboard.
<読取装置の他の構成例>
上記の例では、保持部20が移動しているが、保持部20は移動しなくてもよい。この場合、保持部20が停止した状態で、光源30、検出器40及び消去用光源70が移動することによって、読取装置1では上記と同様の処理が実現される。また、光源30、検出器40及び消去用光源70と、保持部20とが移動してもよい。
<Other configuration examples of the reading device>
In the above example, the holding unit 20 moves, but the holding unit 20 does not have to move. In this case, the light source 30, the detector 40, and the erasing light source 70 move while the holding unit 20 is stopped, thereby realizing the same processing as described above in the reading device 1. Also, the light source 30, the detector 40, the erasing light source 70, and the holding unit 20 may move.
また、読取装置1は複数の光源を備えてもよい。図73は2つの光源を備える読取装置1(読取装置1Aともいう)の構成例を示す概略図である。
Further, the reading device 1 may include a plurality of light sources. FIG. 73 is a schematic diagram showing a configuration example of a reading device 1 (also referred to as reading device 1A) including two light sources.
図75に示されるように、読取装置1Aは、上述の光源30と、それとは別の光源130とを備えている。光源130は、保持部20に保持されたイメージングプレート10あるは評価用部材900に対して照射光L11を照射することが可能である。光源130は、例えば光源30と同じ構成を有しており、照射光L11を主走査方向DRmに走査することが可能である。照射光L11は例えば可視光のレーザ光である。照射光L11の波長は、励起光L10の波長と同じであってもよいし、異なっていてもよい。光源130は、光源30と同様に、発光制御部86によって制御される。照射光L11は作用光L1であるともいえる。
As shown in FIG. 75, the reading device 1A includes the above-described light source 30 and another light source 130. The light source 130 can irradiate the imaging plate 10 or the evaluation member 900 held by the holding part 20 with the irradiation light L11. The light source 130 has, for example, the same configuration as the light source 30, and can scan the irradiation light L11 in the main scanning direction DRm. The irradiation light L11 is, for example, visible laser light. The wavelength of the irradiation light L11 may be the same as or different from the wavelength of the excitation light L10. The light source 130, like the light source 30, is controlled by the light emission control section 86. It can also be said that the irradiation light L11 is the action light L1.
光源130は、例えば、上述の図27のステップs22で使用されてもよい。この場合、ステップs22では、光源30でなく光源130が、消去済みイメージングプレート10の前面(言い換えればIP像領域)及びIP像領域外領域に対して照射光L11を照射する。ステップs22では、光源130は、光源30と同様に、発光制御部86による制御によって、照射光L11をイメージングプレート10及びIP像領域外領域上で主走査方向DRmに走査する処理を繰り返し実行する。一方で、ステップs22において、駆動部50は、上述の読取処理と同様に、イメージングプレート10を保持した保持部20を、副走査方向DRsに移動させる。保持部20が副走査方向DRsに移動している間に、照射光L11を主走査方向DRmに走査する処理が繰り返し実行されることにより、励起光L10と同様に、照射光L11がイメージングプレート10及びIP像領域外領域に対してラスタスキャンされる。ステップs22では、イメージングプレート10に対して照射光L11がラスタスキャンされる間、検出器40が、イメージングプレート10からの照射光L11の反射光を検出し、その検出結果としての消去時画像信号を出力する。この消去時画像信号に基づく消去時全体像は、励起光L10の反射光の検出に基づく上述の消去時全体像と同様に、IP全体反射光像及びIP像領域外領域像を含み、放射線像を含まない。図27のステップs27では、照射光L11の反射光の検出に基づく消去時全体像が表示される。読取装置1Aは、励起光L10の反射光の検出に基づく消去時全体像と同様に、照射光L11の反射光の検出に基づく消去時全体像を使用することができる。例えば、読取装置1Aは、照射光L11の反射光の検出に基づく消去時全体像に基づいてIP傾き角度を特定してもよいし、IPサイズを特定してもよい。照射光L11の反射光は被作用光L2に含まれる。
The light source 130 may be used, for example, in step s22 of FIG. 27 described above. In this case, in step s22, the light source 130 instead of the light source 30 irradiates the front surface of the erased imaging plate 10 (in other words, the IP image area) and the area outside the IP image area with the irradiation light L11. In step s22, like the light source 30, the light source 130 repeatedly performs a process of scanning the irradiation light L11 on the imaging plate 10 and the area outside the IP image area in the main scanning direction DRm under the control of the light emission control unit 86. On the other hand, in step s22, the drive section 50 moves the holding section 20 holding the imaging plate 10 in the sub-scanning direction DRs, similarly to the above-described reading process. While the holding unit 20 is moving in the sub-scanning direction DRs, the process of scanning the irradiation light L11 in the main scanning direction DRm is repeatedly executed, so that the irradiation light L11 is applied to the imaging plate 10 similarly to the excitation light L10. And the area outside the IP image area is raster scanned. In step s22, while the irradiation light L11 is raster-scanned with respect to the imaging plate 10, the detector 40 detects the reflected light of the irradiation light L11 from the imaging plate 10, and generates an erasing image signal as the detection result. Output. The entire image at the time of erasing based on this image signal at the time of erasing includes the entire IP reflected light image and the image of the area outside the IP image area, as well as the entire image at the time of erasing described above based on the detection of the reflected light of the excitation light L10, and the radiation image Does not include. In step s27 of FIG. 27, the entire image at the time of erasing is displayed based on the detection of the reflected light of the irradiation light L11. The reading device 1A can use the entire erasing image based on the detection of the reflected light of the irradiation light L11, as well as the entire erasing image based on the detection of the reflected light of the excitation light L10. For example, the reading device 1A may specify the IP inclination angle or the IP size based on the entire image at the time of erasing based on the detection of the reflected light of the irradiation light L11. The reflected light of the irradiation light L11 is included in the affected light L2.
なお、イメージングプレート10が裏向きで読取装置1Aに入れられた場合に図27の処理が読取装置1Aで実行される場合、ステップs22では、励起光L10の反射光の検出に基づく上述の裏投入時全体像と同様の、照射光L11の反射光の検出に基づく裏投入時全体像が得られる。ユーザは、読取装置1Aの表示部3に表示される裏投入時全体像に基づいて、イメージングプレート10が裏向きで読取装置1Aに入れられたことを特定することができる。
Note that when the processing of FIG. 27 is executed by the reading device 1A when the imaging plate 10 is placed face down into the reading device 1A, in step s22, the above-mentioned back loading is performed based on the detection of the reflected light of the excitation light L10. Similar to the overall image at the time, an overall image at the time of reverse loading is obtained based on the detection of the reflected light of the irradiation light L11. The user can specify that the imaging plate 10 has been placed face down into the reading apparatus 1A based on the entire image displayed on the display unit 3 of the reading apparatus 1A when the imaging plate 10 is placed face down.
また光源130は、例えば上述の図74のステップs52で使用されてもよい。この場合、読取装置1Aでは、ステップs52において、光源30でなく光源130が、評価用部材900の前面及び部材像領域外領域に対して照射光L11を照射する。ステップs52での読取装置1Aの動作は、読取装置1Aの上述のステップs22での動作と同様である。ステップs52では、評価用部材900及び部材像領域外領域に対して照射光L11がラスタスキャンされる間、検出器40が、評価用部材900及び外側領域からの照射光L11の反射光を検出し、その検出結果としての評価用画像信号を出力する。この評価用画像信号に基づく評価用全体像は、励起光L10の反射光の検出に基づく上述の評価用全体像と同様に、評価用パターン像を含み、放射線像を含まない。図74のステップs55では、ステップs52で得られた評価用画像信号に基づいて、照射光L11の反射光の検出に基づく評価用全体像が表示部3に表示される。ユーザは、読取装置1Aの表示部3に表示される評価用全体像に含まれる評価用パターン像に基づいて、検出放射線像の画質評価を行うことができる。
Further, the light source 130 may be used, for example, in step s52 of FIG. 74 described above. In this case, in the reading device 1A, in step s52, the light source 130 instead of the light source 30 irradiates the front surface of the evaluation member 900 and the area outside the member image area with the irradiation light L11. The operation of the reading device 1A in step s52 is similar to the operation of the reading device 1A in step s22 described above. In step s52, while the irradiation light L11 is raster-scanned with respect to the evaluation member 900 and the region outside the member image region, the detector 40 detects the reflected light of the irradiation light L11 from the evaluation member 900 and the outer region. , and outputs an evaluation image signal as the detection result. The overall image for evaluation based on this image signal for evaluation includes an evaluation pattern image and does not include a radiation image, similarly to the above-mentioned overall image for evaluation based on the detection of the reflected light of the excitation light L10. In step s55 of FIG. 74, an overall evaluation image based on detection of the reflected light of the irradiation light L11 is displayed on the display unit 3 based on the evaluation image signal obtained in step s52. The user can evaluate the image quality of the detected radiation image based on the evaluation pattern image included in the overall evaluation image displayed on the display unit 3 of the reading device 1A.
読取装置1は複数の検出器を備えてもよい。図76は2つの検出器と1つの光源を備える読取装置1(読取装置1Bともいう)の構成例を示す概略図である。
The reading device 1 may include multiple detectors. FIG. 76 is a schematic diagram showing a configuration example of a reading device 1 (also referred to as reading device 1B) including two detectors and one light source.
図76に示されるように、読取装置1Bは、上述の検出器40と、検出器40とは別の検出器140とを備えている。また、読取装置1Bは、光源30を備えており、光源130は備えていない。検出器140は、例えば、検出器40と同様の構成を有している。検出器140は、検出器40と同様に、イメージングプレート10からの発光光L2を検出することができる。また、検出器140は、検出器40と同様に、イメージングプレート10あるいは評価用部材900からの励起光L10の反射光と、IP像領域外領域あるいは部材像領域外領域からの励起光L10の反射光とを検出することができる。
As shown in FIG. 76, the reading device 1B includes the above-described detector 40 and a detector 140 different from the detector 40. Further, the reading device 1B includes a light source 30 and does not include a light source 130. Detector 140 has a similar configuration to detector 40, for example. Similar to the detector 40, the detector 140 can detect the emitted light L2 from the imaging plate 10. Further, like the detector 40, the detector 140 receives the reflected light of the excitation light L10 from the imaging plate 10 or the evaluation member 900, and the reflection of the excitation light L10 from the region outside the IP image region or the region outside the member image region. It can detect light.
検出器140は、例えば、上述の図27のステップs22で使用されてもよい。この場合、読取装置1Bでは、ステップs22において、光源30が、消去済みイメージングプレート10の前面及びIP像領域外領域に対してラスタスキャンしている間、検出器140が、イメージングプレート10及びIP像領域外領域からの励起光L10の反射光を検出し、その検出結果としての消去時画像信号を出力する。この消去時画像信号に基づく消去時全体像は、今まで説明した消去時全体像と同様に、IP全体反射光像及びIP像領域外領域像を含み、放射線像を含まない。読取装置1Bは、ステップs22で取得された消去時全体像に基づいて、IP傾き角度の特定等の各種処理を行うことができる。
The detector 140 may be used, for example, in step s22 of FIG. 27 described above. In this case, in the reading device 1B, in step s22, while the light source 30 is raster scanning the front surface of the erased imaging plate 10 and the area outside the IP image area, the detector 140 scans the imaging plate 10 and the IP image area. The reflected light of the excitation light L10 from the outside area is detected, and an erasing image signal is output as the detection result. The entire image at the time of erasing based on the image signal at the time of erasing includes the entire IP reflected light image and the image of the area outside the IP image area, but does not include the radiation image, similar to the entire image at the time of erasing described above. The reading device 1B can perform various processes such as specifying the IP tilt angle based on the entire image at the time of erasure acquired in step s22.
なお、イメージングプレート10が裏向きで読取装置1Bに入れられた場合に図27の処理が読取装置1Bで実行される場合、ステップs22では、今まで説明した裏投入時全体像と同様の、イメージングプレート10の裏面が写る裏投入時全体像が得られる。
Note that when the imaging plate 10 is placed face down in the reading apparatus 1B and the process of FIG. An overall image of the back side of the plate 10 is obtained when the back side is inserted.
また検出器140は、例えば上述の図74のステップs52で使用されてもよい。この場合、読取装置1Bでは、ステップs52において、光源30が、評価用部材900の前面及び部材像領域外領域に対してラスタスキャンしている間、検出器140が、評価用部材900及び部材像領域外領域からの励起光L10の反射光を検出し、その検出結果としての評価用画像信号を出力する。この評価用画像信号に基づく評価用全体像は、今まで説明した評価用全体像と同様に、評価用パターン像を含み、放射線像を含まない。
The detector 140 may also be used, for example, in step s52 of FIG. 74 described above. In this case, in the reading device 1B, in step s52, while the light source 30 is raster scanning the front surface of the evaluation member 900 and the area outside the member image area, the detector 140 scans the evaluation member 900 and the member image. The reflected light of the excitation light L10 from the outside area is detected, and an image signal for evaluation is output as the detection result. The overall image for evaluation based on this image signal for evaluation includes an evaluation pattern image and does not include a radiation image, similar to the overall evaluation image described above.
読取装置1は複数の検出器と複数の光源とを備えてもよい。図77は検出器40及び140と光源30及び130を備える読取装置1(読取装置1Cともいう)の構成例を示す概略図である。
The reading device 1 may include multiple detectors and multiple light sources. FIG. 77 is a schematic diagram showing a configuration example of a reading device 1 (also referred to as reading device 1C) including detectors 40 and 140 and light sources 30 and 130.
読取装置1Cは、検出器140及び光源130を、例えば、上述の図27のステップs22で使用してもよい。この場合、読取装置1Cでは、ステップs22において、光源130が、消去済みイメージングプレート10の前面及びIP像領域外領域に対してラスタスキャンしている間、検出器140が、イメージングプレート10及びIP像領域外領域からの励起光L10の反射光を検出し、その検出結果としての消去時画像信号を出力する。この消去時画像信号に基づく消去時全体像は、今まで説明した消去時全体像と同様に、IP全体反射光像及びIP像領域外領域像を含み、放射線像を含まない。なお、イメージングプレート10が裏向きで読取装置1Cに入れられた場合に図24の処理が読取装置1Cで実行されるとき、ステップs22では、イメージングプレート10の裏面が写る取得全体像が得られる。
The reading device 1C may use the detector 140 and the light source 130, for example, in step s22 of FIG. 27 described above. In this case, in step s22, in the reading device 1C, while the light source 130 is raster scanning the front surface of the erased imaging plate 10 and the area outside the IP image area, the detector 140 scans the imaging plate 10 and the IP image area. The reflected light of the excitation light L10 from the outside area is detected, and an erasing image signal is output as the detection result. The entire image at the time of erasing based on the image signal at the time of erasing includes the entire IP reflected light image and the image of the area outside the IP image area, but does not include the radiation image, similar to the entire image at the time of erasing described above. Note that when the processing of FIG. 24 is executed by the reading device 1C when the imaging plate 10 is placed face down into the reading device 1C, an acquired overall image showing the back side of the imaging plate 10 is obtained in step s22.
また、読取装置1Cは、検出器140及び光源130を、例えば、上述の図74のステップs52で使用してもよい。この場合、読取装置1Cでは、ステップs52において、光源130が、評価用部材900の前面及び部材像領域外領域に対してラスタスキャンしている間、検出器140が、評価用部材900及び部材像領域外領域からの励起光L10の反射光を検出し、その検出結果としての評価用画像信号を出力する。この評価用画像信号に基づく評価用全体像は、今まで説明した評価用全体像と同様に、評価用パターン像を含み、放射線像を含まない。
Further, the reading device 1C may use the detector 140 and the light source 130, for example, in step s52 of FIG. 74 described above. In this case, in the reading device 1C, in step s52, while the light source 130 is raster scanning the front surface of the evaluation member 900 and the area outside the member image area, the detector 140 scans the evaluation member 900 and the member image. The reflected light of the excitation light L10 from the outside region is detected, and an image signal for evaluation is output as the detection result. The overall evaluation image based on this evaluation image signal includes an evaluation pattern image and does not include a radiation image, like the evaluation overall image described above.
読取装置1A及び1Cでは、光源130は、可視光以外の光を照射光L11として出力してもよい。例えば、照射光L11は、赤外線であってもよいし、紫外線であってもよい。この場合、検出器40及び検出器140としては、赤外線あるいは紫外線を検出できる検出器が採用される。
In the reading devices 1A and 1C, the light source 130 may output light other than visible light as the irradiated light L11. For example, the irradiated light L11 may be infrared light or ultraviolet light. In this case, detectors capable of detecting infrared light or ultraviolet light are used as the detectors 40 and 140.
また、読取装置1B及び1Cでは、照射光L11の反射光を検出する検出器140は、例えば、カメラで使用されるCCDセンサあるいはCMOSセンサを備えてもよい。CCDはCharge Coupled Deviceの略語であり、CMOSは、Complementary Metal Oxide Semiconductorの略語である。
Further, in the reading devices 1B and 1C, the detector 140 that detects the reflected light of the irradiation light L11 may include, for example, a CCD sensor or a CMOS sensor used in a camera. CCD is an abbreviation for Charge Coupled Device, and CMOS is an abbreviation for Complementary Metal Oxide Semiconductor.
また、読取装置1Cでは、光源130は、照射光L11を走査するのではなく、消去用光源70のように、1度の照射でイメージングプレート10あるいは評価用部材900の全範囲を照射光L11で照射してもよい。この場合、検出器140は、例えば、カメラで使用されるCCDセンサあるいはCMOSセンサを備えてもよい。
In addition, in the reading device 1C, the light source 130 does not scan the irradiation light L11 but, like the erasing light source 70, uses the irradiation light L11 to cover the entire range of the imaging plate 10 or the evaluation member 900 in one irradiation. It may be irradiated. In this case, the detector 140 may include, for example, a CCD sensor or a CMOS sensor used in a camera.
また、読取装置1B及び1Cでは、検出器40は、励起光L10の反射光を検出できなくてもよい。この場合、検出器40の光学フィルタ42は、励起光L10を透過させてなくてもよい。また、読取装置1Cでは、検出器40は、照射光L11の反射光を検出できなくてもよい。この場合、検出器40の光学フィルタ42は、照射光L11を透過させてなくてもよい。
Further, in the reading devices 1B and 1C, the detector 40 does not need to be able to detect the reflected light of the excitation light L10. In this case, the optical filter 42 of the detector 40 does not need to transmit the excitation light L10. Furthermore, in the reading device 1C, the detector 40 does not need to be able to detect the reflected light of the irradiation light L11. In this case, the optical filter 42 of the detector 40 does not need to transmit the irradiation light L11.
検出器40が励起光L10の反射光を検出しない場合に取得される発光時全体像では、イメージングプレート10に未露光部分が含まれるとき、未露光領域像の輝度値と、IP像領域外領域像の輝度値とは同じような値となる。よって、イメージングプレート10に未露光部分が含まれる場合、画像処理部81は、上記のような二値化像を用いる方法では、発光時全体像に基づいてIP傾き角度及びIPサイズを特定することが難しくなる。しかしながら、イメージングプレート10に未露光部分が含まれる場合であっても、画像処理部81は、検出器140が出力する消去時画像信号に基づく消去時全体像に基づいて、IP傾き角度及びIPサイズを上記のようにして適切に特定することができる。
In the entire image during light emission obtained when the detector 40 does not detect the reflected light of the excitation light L10, when the imaging plate 10 includes an unexposed part, the brightness value of the unexposed area image and the area outside the IP image area This value is similar to the brightness value of the image. Therefore, when the imaging plate 10 includes an unexposed portion, the image processing unit 81 cannot specify the IP inclination angle and the IP size based on the entire image at the time of light emission in the method using the binarized image as described above. becomes difficult. However, even if the imaging plate 10 includes an unexposed portion, the image processing unit 81 determines the IP tilt angle and the IP size based on the entire image at the time of erasure based on the image signal at the time of erasure outputted by the detector 140. can be appropriately specified as described above.
また、読取装置1B及び1Cでは、検出器140は、輝尽光L5を検出できなくてもよい。この場合、読取装置1B及び1Cは、イメージングプレート10から放射線像を消去することなくIP全体反射光像を得ることができる。例えば、読取装置1Bは、上述のステップs2の読取処理において、検出器40及び140を同時に動作させてもよい。この場合、検出器40での被励起領域光L20の検出と、検出器14でのイメージングプレート10からの励起光L10の反射光の検出とが並行に行われる。検出器140が出力する画像信号に基づく全体の像は、消去時全体像と同様の像となり、IP全体反射光像及びIP像領域外領域像を含み、放射線像を含まない。また、読取装置1Cは、上述のステップs2の読取処理において、光源30及び130を同時に動作させるとともに検出器40及び140を同時に動作させてもよい。この場合、検出器40での被励起領域光L20の検出と、検出器140でのイメージングプレート10からの照射光L11の反射光の検出とが並行に行われる。この場合も、検出器140が出力する画像信号に基づく全体の像は、消去時全体像と同様の像となり、IP全体反射光像及びIP像領域外領域像を含み、放射線像を含まない。このように、読取処理の中で、被励起領域光L20の検出に基づく放射線像だけではなく、励起光L10あるいは照射光L11の反射光の検出に基づく反射光像を得ることによって、図27のステップs21及びs22の処理が不要となる。つまり、上述の図18の一連の処理の中で、被励起領域光L20の検出に基づく放射線像と、励起光L10あるいは照射光L11の反射光の検出に基づく反射光像とを得ることができる。よって、読取装置1の動作を簡素化することができる。
Further, in the reading devices 1B and 1C, the detector 140 does not need to be able to detect the stimulated light L5. In this case, the reading devices 1B and 1C can obtain the entire IP reflected light image without erasing the radiation image from the imaging plate 10. For example, the reading device 1B may operate the detectors 40 and 140 simultaneously in the reading process of step s2 described above. In this case, the detection of the excited region light L20 by the detector 40 and the detection of the reflected light of the excitation light L10 from the imaging plate 10 by the detector 14 are performed in parallel. The entire image based on the image signal output by the detector 140 is the same as the entire image at the time of erasure, and includes the entire IP reflected light image and the image of the area outside the IP image area, but does not include the radiation image. Further, the reading device 1C may operate the light sources 30 and 130 simultaneously and the detectors 40 and 140 simultaneously in the reading process of step s2 described above. In this case, the detection of the excited region light L20 by the detector 40 and the detection of the reflected light of the irradiation light L11 from the imaging plate 10 by the detector 140 are performed in parallel. In this case as well, the entire image based on the image signal output by the detector 140 is the same as the entire image at the time of erasing, and includes the entire IP reflected light image and the image of the area outside the IP image area, but does not include the radiation image. In this way, in the reading process, by obtaining not only a radiation image based on the detection of the excited region light L20 but also a reflected light image based on the detection of the reflected light of the excitation light L10 or the irradiation light L11, the image shown in FIG. The processing of steps s21 and s22 becomes unnecessary. That is, in the series of processes shown in FIG. 18 described above, a radiation image based on the detection of the excited region light L20 and a reflected light image based on the detection of the reflected light of the excitation light L10 or the irradiation light L11 can be obtained. . Therefore, the operation of the reading device 1 can be simplified.
上記の例の読取装置1では、ACアダプタ5以外の複数の構成が、筐体2で一体化されていたが、一体化されていなくてもよい。例えば、読取装置1は、筐体2に設けられた表示部3とは別に、あるいは表示部3の代わりに、筐体2の外側に位置する表示部13を備えてもよい。図78は、筐体2表示面の外側に表示部13を備える読取装置1(読取装置1Dともいう)の構成の一例を示す概略図である。表示部13は表示装置13ともいえる。
In the reading device 1 of the above example, a plurality of components other than the AC adapter 5 are integrated in the housing 2, but they do not need to be integrated. For example, the reading device 1 may include a display unit 13 located outside the housing 2, in addition to the display unit 3 provided in the housing 2, or instead of the display unit 3. FIG. 78 is a schematic diagram showing an example of the configuration of a reading device 1 (also referred to as reading device 1D) that includes a display section 13 on the outside of the display surface of the housing 2. The display unit 13 can also be called a display device 13.
表示部13は、例えば、液晶表示装置あるいは有機EL表示装置であり、文字、記号、図形及び画像などの各種情報を表示することが可能である。表示部13は、筐体2内の制御部80の表示制御部82によって制御される。表示制御部82は、例えば、筐体2内のインタフェース部95を通じて、表示部13を制御することができる。インタフェース部95と表示部13との間の通信は、USBに準拠してもよいし、DisplayPortに準拠してもよいし、HDMI(High-Definition Multimedia Interface)(登録商標)に準拠してもよい。また、インタフェース部95は、表示部13と有線接続されてもよいし、無線接続されてもよい。表示部13は、取得全体像を表示してもよいし、切出像を表示してもよい。なお、図78の例では、読取装置1Dの筐体2に表示部3が設けられているが、表示部3は設けられなくてもよい。また、読取装置1Dは、図75~77に示されるように、複数の光源を備えてもよいし、複数の検出器を備えてもよい。
The display unit 13 is, for example, a liquid crystal display device or an organic EL display device, and is capable of displaying various information such as characters, symbols, figures, and images. The display section 13 is controlled by a display control section 82 of a control section 80 inside the housing 2 . The display control unit 82 can control the display unit 13 through the interface unit 95 inside the housing 2, for example. Communication between the interface unit 95 and the display unit 13 may be based on USB, DisplayPort, or HDMI (High-Definition Multimedia Interface) (registered trademark). . Further, the interface section 95 may be connected to the display section 13 by wire or wirelessly. The display unit 13 may display the acquired entire image or may display a cut-out image. Note that in the example of FIG. 78, the display section 3 is provided in the housing 2 of the reading device 1D, but the display section 3 may not be provided. Further, the reading device 1D may include a plurality of light sources or a plurality of detectors, as shown in FIGS. 75 to 77.
図79及び80は、読取装置1の構成の他の一例を示す概略図である。図79及び80に示される読取装置1(読取装置1Eともいう)では、読取装置1Eの機能の一部を有するコンピュータ装置950が筐体2の外側に設けられている。図80に示されるように、コンピュータ装置950は、例えば、上述の表示部3、画像処理部81及び表示制御部82を備える。コンピュータ装置950は、例えば、パーソナルコンピュータ(汎用コンピュータともいう)であってもよい。この場合、コンピュータ装置950は、ノート型であってもよいし、デスクトップ型であってもよい。以後、読取装置1Eにおいて、筐体2と、筐体2によって一体化された複数の構成と、ACアダプタ5とをまとめて読取装置本体9と呼ぶことがある。
79 and 80 are schematic diagrams showing other examples of the configuration of the reading device 1. In the reading device 1 (also referred to as reading device 1E) shown in FIGS. 79 and 80, a computer device 950 having some of the functions of the reading device 1E is provided outside the casing 2. As shown in FIG. 80, the computer device 950 includes, for example, the above-described display section 3, image processing section 81, and display control section 82. Computer device 950 may be, for example, a personal computer (also referred to as a general-purpose computer). In this case, the computer device 950 may be a notebook type or a desktop type. Hereinafter, in the reading device 1E, the housing 2, the plurality of components integrated by the housing 2, and the AC adapter 5 may be collectively referred to as the reading device main body 9.
コンピュータ装置950は、読取装置本体9と通信することが可能である。コンピュータ装置950は、例えば、画像処理部81及び表示制御部82を有する制御部951と、読取装置本体9と通信するインタフェース部952とを備える。また、コンピュータ装置950は、ユーザからの操作を受け付ける操作部953を備える。
The computer device 950 can communicate with the reading device main body 9. The computer device 950 includes, for example, a control section 951 having an image processing section 81 and a display control section 82, and an interface section 952 that communicates with the reading device main body 9. The computer device 950 also includes an operation unit 953 that accepts operations from the user.
制御部951は、コンピュータ装置950の動作を統合的に管理することが可能であり、制御回路ともいえる。制御部951は、例えば、表示部3及びインタフェース部952を制御することができる。また、制御部951は、操作部953が受け付けたユーザ操作に応じた処理を行うことができる。
The control unit 951 can integrally manage the operations of the computer device 950, and can also be called a control circuit. The control unit 951 can control the display unit 3 and the interface unit 952, for example. Further, the control unit 951 can perform processing according to a user operation received by the operation unit 953.
制御部951は、例えば、少なくとも一つのプロセッサと、記憶部とを備え、一種のコンピュータ装置であるといえる。制御部951が備える少なくとも一つのプロセッサには、CPUが含まれてもよいし、CPU以外のプロセッサが含まれてもよい。制御部951では、少なくとも一つのプロセッサが記憶部(記憶回路ともいう)内のプログラムを実行することによって、各種機能が実現される。制御部951では、少なくとも一つのプロセッサが記憶部内のプログラムを実行することによって、機能ブロックとして、上述の画像処理部81及び表示制御部82が形成される。
The control unit 951 includes, for example, at least one processor and a storage unit, and can be said to be a type of computer device. At least one processor included in the control unit 951 may include a CPU, or may include a processor other than the CPU. In the control unit 951, various functions are realized by at least one processor executing programs in a storage unit (also referred to as a storage circuit). In the control unit 951, the above-described image processing unit 81 and display control unit 82 are formed as functional blocks by at least one processor executing a program in the storage unit.
操作部953は、例えば、キーボード及びマウスを備える。操作部953は、ユーザのタッチ操作を検出するタッチセンサを備えてもよい。操作部953がタッチセンサを備える場合、当該タッチセンサと表示部3とで、表示機能及びタッチ検出機能を有するタッチパネルディスプレイが構成されてもよい。
The operation unit 953 includes, for example, a keyboard and a mouse. The operation unit 953 may include a touch sensor that detects a user's touch operation. When the operation unit 953 includes a touch sensor, the touch sensor and the display unit 3 may constitute a touch panel display having a display function and a touch detection function.
インタフェース部952は、読取装置本体9のインタフェース部95と通信することが可能である。インタフェース部952と読取装置本体9のインタフェース部95との間の通信は、イーサネットに準拠してもよいし、USBに準拠してもよいし、WiFiに準拠してもよいし、他の規格に準拠してもよい。インタフェース部952は、インタフェース部95と有線通信を行ってもよいし、無線通信を行ってもよい。インタフェース部952は、インタフェース回路ともいえるし、通信部ともいえるし、通信回路ともいえる。コンピュータ装置950の制御部951と、読取装置本体9の制御部80とは、インタフェース部952及びインタフェース部95を通じて、互いに情報のやり取りを行うことができる。
The interface section 952 can communicate with the interface section 95 of the reading device main body 9. Communication between the interface section 952 and the interface section 95 of the reading device main body 9 may be based on Ethernet, USB, WiFi, or other standards. May be compliant. The interface section 952 may communicate with the interface section 95 by wire or wirelessly. The interface section 952 can be called an interface circuit, a communication section, or a communication circuit. The control section 951 of the computer device 950 and the control section 80 of the reading device main body 9 can exchange information with each other through the interface section 952 and the interface section 95.
読取装置1Eでは、コンピュータ装置950の制御部951と読取装置本体9の制御部80とが協働することによって、制御部80が行っていた上述の各種処理が実行される。読取装置1Eでは、検出制御部85が、検出器40が出力する画像信号をインタフェース部95に出力する。インタフェース部95は、入力された画像信号をインタフェース部952に出力する。インタフェース部952は、入力された画像信号を制御部951に入力する。画像処理部81は、制御部951に入力された画像信号に対して上述の画像処理を行う。そして、画像処理部81は、画像処理後の画像信号に基づいて、上述の傾き角度特定処理を実行したり、サイズ特定処理を実行したり、切出処理を実行したりする。また、表示制御部82は、画像処理後の画像信号に基づいて、例えば、取得全体像を表示部3に表示させる。
In the reading device 1E, the control section 951 of the computer device 950 and the control section 80 of the reading device main body 9 cooperate to execute the various processes described above that were performed by the control section 80. In the reading device 1E, the detection control unit 85 outputs the image signal output by the detector 40 to the interface unit 95. The interface section 95 outputs the input image signal to the interface section 952. The interface section 952 inputs the input image signal to the control section 951. The image processing section 81 performs the above-described image processing on the image signal input to the control section 951. Then, the image processing unit 81 executes the above-described tilt angle specifying process, size specifying process, and cutting process based on the image signal after image processing. Further, the display control unit 82 causes the display unit 3 to display, for example, the entire acquired image based on the image signal after image processing.
コンピュータ装置950の操作部953は、読取装置本体9の操作部4が受け付ける複数のユーザ操作の少なくとも一部を受け付けてもよい。例えば、操作部953は、図18の一連の処理の開始を指示するユーザ操作を受け付けてもよいし、図26の一連の処理の開始を指示するユーザ操作を受け付けてもよいし、図27の一連の処理の開始を指示するユーザ操作を受け付けてもよいし、図74の一連の処理の開始を指示するユーザ操作を受け付けてもよい。この場合、制御部951は、操作部953が受け付けたユーザ操作をインタフェース部952を通じて読取装置本体9に通知する。読取装置本体9では、制御部80が、インタフェース部95を通じて制御部951からの通知を受け取り、操作部953が受け付けたユーザ操作に応じた処理を実行する。
The operation unit 953 of the computer device 950 may accept at least a portion of the plurality of user operations accepted by the operation unit 4 of the reading device main body 9. For example, the operation unit 953 may accept a user operation that instructs to start a series of processes in FIG. 18, a user operation that instructs to start a series of processes in FIG. 26, or a user operation that instructs to start a series of processes in FIG. A user operation that instructs to start a series of processes may be accepted, or a user operation that instructs to start a series of processes shown in FIG. 74 may be accepted. In this case, the control unit 951 notifies the reading device main body 9 of the user operation received by the operation unit 953 through the interface unit 952. In the reading device main body 9, the control unit 80 receives a notification from the control unit 951 through the interface unit 95, and executes processing according to the user operation received by the operation unit 953.
また、操作部953は、操作部4が受け付けないユーザ操作を受け付けてもよいし、操作部4は、操作部953が受け付けないユーザ操作を受け付けてもよい。また、操作部953が受け付けたユーザ操作と、操作部4が受け付けたユーザ操作が競合する場合、読取装置1Eでは、例えば、読取装置本体9が受け付けたユーザ操作に応じた処理が優先的に実行されてもよい。
Furthermore, the operation unit 953 may accept user operations that the operation unit 4 does not accept, and the operation unit 4 may accept user operations that the operation unit 953 does not accept. Furthermore, if the user operation received by the operation unit 953 and the user operation received by the operation unit 4 conflict, the reading device 1E, for example, preferentially executes the process corresponding to the user operation received by the reading device main body 9. may be done.
なお、読取装置1Eは、上述の図1等に示されるように、筐体2に設けられた表示部を備えてもよい。また、読取装置1Eは、図75~77に示されるように、複数の光源を備えてもよいし、複数の検出器を備えてもよい。また、読取装置1Eは、操作部4及び953のどちらか一方を備えなくてもよい。また、読取装置1Eでは、読取装置本体9の制御部80が、コンピュータ装置950の画像処理部81が行う複数の処理の一部を代わりに実行してもよい。例えば、制御部80は、検出器40からの画像信号に対する画像処理を実行し、画像処理後の画像信号が画像処理部81に入力されてもよい。
Note that the reading device 1E may include a display section provided in the housing 2, as shown in FIG. 1 and the like described above. Further, the reading device 1E may include a plurality of light sources or a plurality of detectors, as shown in FIGS. 75 to 77. Further, the reading device 1E does not need to include either the operation unit 4 or 953. Further, in the reading device 1E, the control unit 80 of the reading device main body 9 may execute some of the plurality of processes performed by the image processing unit 81 of the computer device 950 instead. For example, the control unit 80 may perform image processing on the image signal from the detector 40, and the image signal after the image processing may be input to the image processing unit 81.
以上のように、読取装置1は詳細に説明されたが、上記した説明は、全ての局面において例示であって、この開示がそれに限定されるものではない。また、上述した各種変形例は、相互に矛盾しない限り組み合わせて適用可能である。そして、例示されていない無数の変形例が、この開示の範囲から外れることなく想定され得るものと解される。
As mentioned above, although the reading device 1 has been described in detail, the above description is an illustration in all aspects, and this disclosure is not limited thereto. Further, the various modifications described above can be applied in combination as long as they do not contradict each other. And it is understood that countless variations not illustrated can be envisioned without departing from the scope of this disclosure.