JPS62140176A - Image editing processor - Google Patents
Image editing processorInfo
- Publication number
- JPS62140176A JPS62140176A JP28163185A JP28163185A JPS62140176A JP S62140176 A JPS62140176 A JP S62140176A JP 28163185 A JP28163185 A JP 28163185A JP 28163185 A JP28163185 A JP 28163185A JP S62140176 A JPS62140176 A JP S62140176A
- Authority
- JP
- Japan
- Prior art keywords
- data
- image
- memory
- address
- editing processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
Description
【発明の詳細な説明】
(1)技術分野
本発明は、高密度画像を高速に編集処理する事かできる
画像編集装置に関するものである。DETAILED DESCRIPTION OF THE INVENTION (1) Technical Field The present invention relates to an image editing device that can edit high-density images at high speed.
(11)従来技術
従来この種の装置は非常に高価で大型化し、且つ処理時
間が長いという欠点があり印刷システムとして用いられ
るだけであった。これは、例えばサイテックス社のレン
ボンス300シリーズやクロスフィールド社の5TUD
IO−800シリーズのページメークアップシステムの
様に数億円もする装置であった。(11) Prior Art Conventionally, this type of apparatus had the drawbacks of being extremely expensive, large-sized, and requiring a long processing time, and was only used as a printing system. For example, Cytex's Renbonsu 300 series or Crossfield's 5TUD
It was a device costing hundreds of millions of yen, like the IO-800 series page make-up system.
(II+ )目 的
本発明は上述従来システムの欠点を除去し、コンパクト
で低価格なしかも高速処理可能な装置を提供するもので
ある。本発明の特徴としては画像を高解像に読みとった
時に生じる膨大な画像データを編集処理のやりやすい形
態でデータ圧縮を施し、画像データを数分の1にし、実
際の編集作業時にかかる画像データを修正、編集し、そ
の結果を高解像、高階調に出力するものである。(II+) Objective The present invention eliminates the drawbacks of the conventional systems described above and provides a compact, low-cost device capable of high-speed processing. A feature of the present invention is that the huge amount of image data generated when reading an image at high resolution is compressed in a format that is easy to edit, reducing the image data to a fraction of the original size, and reducing the amount of image data required during actual editing work. It corrects and edits the images, and outputs the results in high resolution and high gradation.
く概 論〉
一般に画像編集装置の機能としては、
以上の2つの編集機能を必要とする。前者は一般にハー
ドウェアによるパイプライン会プロセサーと言われるも
ので本装置に於ては画像編集機能のある特定の高速性を
必要とする項目について実行する。後者のCPUによる
処理は人間とインターラクテイブに行う項目について(
ある程度時間はかかってもよい)実行する。Overview In general, an image editing device requires the above two editing functions. The former is generally referred to as a hardware pipeline processor, and in this device executes certain image editing functions that require high speed. Regarding the latter, processing by the CPU is performed interactively with humans (
(It may take some time).
即ち、前者のパイプラインOプロセサーは、例えば画像
のレイアウトを決めるアフィン変換(拡大・縮小・移動
・回転)と空間フィルター処理(画像の強調・平滑化等
)及び100kup table(I、UT)による
色変換処理等の画像の逐次処理を主として行う。That is, the former pipeline O processor, for example, performs affine transformation (enlargement/reduction/movement/rotation) that determines the image layout, spatial filter processing (image enhancement/smoothing, etc.), and color processing using the 100kup table (I, UT). Mainly performs sequential image processing such as conversion processing.
後者のCPUによる処理は一般に複雑な処理、ハードウ
ェア化出来にくい処理を行う。ここでは画像を任意の形
状に切り出したり、切り出した画像を別の所ヘコビーす
る処理、画像の一部を修正する等の処理をさす。これら
の処理は一般に操作者の創造によるクリエイティブな処
理で、ある程度時間がかかっても許容出来る。The latter processing by the CPU generally performs complicated processing and processing that is difficult to implement in hardware. Here, it refers to processing such as cutting out an image into an arbitrary shape, copying the cut out image to another location, and modifying a part of the image. These processes are generally creative processes created by the operator, and can be tolerated even if they take a certain amount of time.
しかしこの機能は高機能である必要がある。However, this function needs to be highly functional.
以上2つの編集処理機能を最大のパフォーマンスで実施
するためには編集装置のシステム壷アーキテクチャ−か
ら考える必要がある。In order to implement the above two editing processing functions with maximum performance, it is necessary to consider the system architecture of the editing device.
即ち両者の処理が十分高機能に高速に実行出来るように
するためには構成するシステムの体系、取り扱う画像デ
ータの持ち方(フォーマット)、信号の流れ、機能の解
析等が検討される必要がある。In other words, in order to be able to perform both processes with sufficient functionality and high speed, it is necessary to consider the structure of the system, the format of the image data to be handled, the flow of signals, the analysis of functions, etc. .
種々の検討の結果(カラー)画像編集装置としてのシス
テム・アーキテクチャ−として次の事が結論として得ら
れた。As a result of various studies, the following conclusions regarding the system architecture for a (color) image editing device were obtained.
(1)画像編集を行うためには画像データは圧縮データ
として持つ。(1) To perform image editing, image data must be stored as compressed data.
(2)圧縮の方式としてはmXmのブロックを一符号と
して持つベクトル量子化がよい。(2) As a compression method, vector quantization using m×m blocks as one code is preferable.
(1)に於て、高解像−高階調の画像編集処理を行うた
めには、画像データ容量としては極めて莫大となる。例
えばA4.lpageを16 p e 1 / m m
でカラー読取りした場合、R,G、B3色で約48Mバ
イトのデータ容量となる。先に述べた画像編集をインタ
ーラクテイブに、高機能に行うためには、かかるカラー
画像データを圧縮し、編集やりやすい形にする事が重要
技術となる。このためには(2)のベクトル量子化手法
が最適であると結論づけられた。In (1), in order to perform high resolution/high gradation image editing processing, the image data capacity is extremely large. For example, A4. lpage 16 p e 1/mm
When reading in color, the data capacity for three colors R, G, and B is approximately 48 Mbytes. In order to perform the above-mentioned image editing in an interactive and highly functional manner, an important technique is to compress the color image data and make it easier to edit. It was concluded that the vector quantization method (2) is optimal for this purpose.
本発明は以上の結論を基にシステム壷アーキテクチャ−
を決定し、高画質で高機能・高速の画像編集処理装置を
実現出来たものである。The present invention is based on the above conclusion, and the system architecture is
By determining this, we were able to realize a high-quality, high-performance, high-speed image editing processing device.
以下本発明をカラー処理に適用した場合の実施例に基づ
き詳細に説明する。The present invention will be described in detail below based on an embodiment in which the present invention is applied to color processing.
(IV)実施例
第1図はこの発明の一実施例を示す画像編集装置の構成
図である。リーダ1によって読みとられた画像データ(
例えばR,G、B各8bitデジタルデータ)は変換器
11により信号変換されNTSC信号で用いられる輝度
(Y)信号と色差信号(I、Q)に変換される。かかる
変換は例えばR,G、Hのデータをなるマトリックス計
算により得られる。ここで変換マトリックスの係数はリ
ーダの色分解特性、γ特性等に合わせて適宜修正される
。かかるY、I、Q信号は後述の圧縮器2により圧縮さ
れ画像データファイル用のディスクメモリ3へ記憶され
る。ディスク内の画像データはImageメモリ5と呼
ばれるICメモリ上へ読み出され加工・編集される。こ
こで高速処理を行うべく基本処理は/\−ドウエア化さ
れたノくイブラインプロセサー4によって、ディスクか
らImageメモリへの転送の過程で、所謂ラスターオ
ペレーションによりイメージメモリ5上へ編集展開され
る。(IV) Embodiment FIG. 1 is a block diagram of an image editing apparatus showing an embodiment of the present invention. Image data read by reader 1 (
For example, R, G, and B 8-bit digital data) are converted into signals by the converter 11 and converted into a luminance (Y) signal and color difference signals (I, Q) used in the NTSC signal. Such conversion can be obtained, for example, by matrix calculation using R, G, and H data. Here, the coefficients of the conversion matrix are modified as appropriate in accordance with the color separation characteristics, γ characteristics, etc. of the reader. These Y, I, and Q signals are compressed by a compressor 2, which will be described later, and stored in a disk memory 3 for image data files. Image data on the disk is read out onto an IC memory called an image memory 5 and processed and edited. Here, in order to perform high-speed processing, the basic processing is performed by the computerized virtual processor 4, which edits and expands the data onto the image memory 5 by a so-called raster operation during the transfer process from the disk to the image memory.
一方、イメージメモリ5上の画像データはCPU8によ
り各種処理が施され加工・修正が行われる。編集の過程
はCRTコントローラ9によりカラーCRTIO上へ表
示され、編集の状況がモニターできる。編集された結果
はイメージメモリ5から復号器6を通して元の画像デー
タに戻され、変換器12によりこの画像データがプリン
タに対応した色信号(Yellow、Magenta、
Cyan、Black)に変換されCo1or Pr1
nter 7へ出力される。On the other hand, the image data on the image memory 5 is processed and corrected by various processes by the CPU 8. The editing process is displayed on the color CRTIO by the CRT controller 9, and the editing status can be monitored. The edited result is returned to the original image data from the image memory 5 through the decoder 6, and the converter 12 converts this image data into color signals (Yellow, Magenta,
Co1or Pr1
output to inter 7.
次に画像データの圧縮法について述べる。Next, a method for compressing image data will be described.
Y、I、Qのような輝度と色差の3色信号に分けること
により、輝度データであるY信号の空間周波数をよく保
存しておけば、色差信号である1、Q信号の空間周波数
は、ある程度制限しく高周波成分のカット)視覚上の画
質劣化が少ないということが知られている。If the spatial frequency of the Y signal, which is luminance data, is well preserved by dividing it into three color signals of luminance and chrominance, such as Y, I, and Q, the spatial frequency of the 1 and Q signals, which are chrominance signals, will be It is known that there is little visual deterioration in image quality (cutting of high frequency components to some extent).
そこで例えばI、Q信号はmXmのブロック(mは整数
)の平均値等で色情報を代表させ、カラー画像のデータ
量を削減するデータ圧縮法が考えられる。I、Q信号の
ブロックサイズは要求される画質7許容されるメモリ容
量により2X2.4X4.6X6などのブロックサイズ
が選ばれる。例えばブロックサイズを4X4とすると、
@述したようにA4.lpageのメモリ容量48MB
yteは、Y信号16MByt e+I 、Q信号2M
Byte=計18MByteとなり約2.7の圧縮率と
なる。Therefore, a data compression method may be considered in which, for example, the I and Q signals are represented by the average value of m×m blocks (m is an integer), thereby reducing the amount of data of a color image. As for the block size of the I and Q signals, a block size such as 2X2.4X4.6X6 is selected depending on the required image quality7 and the allowable memory capacity. For example, if the block size is 4X4,
@As mentioned, A4. lpage memory capacity 48MB
yte is Y signal 16MByte e+I, Q signal 2M
Byte = 18 MB in total, resulting in a compression ratio of approximately 2.7.
一方Y信号に関してはI、Q信号の圧縮とは異なり解像
度データを十分残すような圧縮法が必要となる。On the other hand, for the Y signal, unlike the compression of the I and Q signals, a compression method that leaves sufficient resolution data is required.
第1の方法としてブロック符号化手法がある。The first method is a block encoding method.
この手法はmXmブロック内の画素データXの平均値マ
、標準偏差σを算出する。次に各画素ごとの濃淡情報を
数bit程度で表わす。This method calculates the average value and standard deviation σ of pixel data X within an mXm block. Next, gradation information for each pixel is expressed in approximately several bits.
例えば(X−X)/σの計算値を再量子化することによ
り実現できる。この圧縮データフォーマットは第2図(
a)のようになり、平均値、標鵡偏差の次に各画素の濃
淡情報を続け、この濃淡+PJ報の1lllli序をブ
ロック内の両車位置に1対1に対応させる。したがって
、この濃淡情報の順序を入れ換えることによりブロック
内での画素の回転を実施することができる。For example, this can be realized by requantizing the calculated value of (XX)/σ. This compressed data format is shown in Figure 2 (
As shown in a), the average value and the standard parrot deviation are followed by the shading information of each pixel, and the 1lllli order of this shading + PJ information is made to correspond one-to-one to the positions of both vehicles within the block. Therefore, by changing the order of this grayscale information, it is possible to rotate pixels within a block.
第2の方法は、mXm画素のベクトル量子化手法である
。The second method is an mXm pixel vector quantization technique.
この手法はmXmブロック内の画素データを平均値1
標準偏差σと画像の回転を表わすコードおよび画像のパ
ターンを表わすコードにより表現させて、データの圧縮
を計るものである。この圧縮データフォーマットは、第
2図(b)のようになる。ここで回転を表わすコードと
は例えばmXmのブロック内の画像パターンを90°、
180’ 、2700回転させたものと、同じパターン
コードを用いるベクトル量子化法において、この角度を
表わすコードである。木実流側では0°、90°、18
0°。This method calculates the average value of pixel data in m×m blocks by 1
Data compression is measured by expressing the standard deviation σ, a code representing the rotation of the image, and a code representing the pattern of the image. This compressed data format is as shown in FIG. 2(b). Here, the code representing rotation is, for example, an image pattern in a block of mXm, 90 degrees,
This is the code that represents this angle in the vector quantization method that uses the same pattern code as the one rotated by 180' and 2700 degrees. 0°, 90°, 18 on the wood flow side
0°.
2700の4パターン2bitで表わされる。It is represented by 2700 4 patterns and 2 bits.
この手法においては、回転コードを操作することにより
、ブロック内の画素の回転が可能となる。In this method, pixels within a block can be rotated by manipulating a rotation code.
次にアフィン変換について説明する。Next, affine transformation will be explained.
アフィン変換では画像の拡大・縮小・移動・回転を行な
う。In affine transformation, images are enlarged, reduced, moved, and rotated.
入力画像のもつ入力メモリ上でのアドレスを(χs 、
ys)とし、主走査方向縮倍率をα、副走査方向の縮
倍率をβ、回転角をφ、回転の中心座標を(χC,!/
C)、主走査方向への移動量をXm、副走査方向への移
動量をYmとした時、出力メモリでのアドレス(χ0.
y0)とすると、次のような関係式が成立する。The address on the input memory of the input image is (χs,
ys), the main scanning direction magnification is α, the sub-scanning direction is β, the rotation angle is φ, and the rotation center coordinates are (χC,!/
C), when the amount of movement in the main scanning direction is Xm and the amount of movement in the sub-scanning direction is Ym, the address in the output memory (χ0.
y0), the following relational expression holds true.
@ O
□ ぽ 試
←1ト隼KIトヤ壱−)mへχS、ySが与えられ
ると■、■に従ってχo、yoを求めてゆく。これは例
えば第3図のような構成で実現できる。以下、第3図に
従って説明する。χSを■式に従って求めてゆく場合は
、初期値オフセット(直流分)分を初期値としてレジス
タ31にセットする。また、副走査同期増分値及び主走
査同期増分値を各々当a亥レジスタ32.37にセット
する。この一連の値のセットは、縮倍率・回転角に応じ
てCPUにより実行される。第4図は、第3図の回路の
ページ同期信号と副走査同期信号と主走査回期信号の関
係を示すタイミングチャートである。ページ同期信号が
立ち下がることにより副走査同期信号の発生が開始され
ページ内に存在する走査線数分だけ発生する。副走査同
期信号の立ち下がりにより主走査同期信号が発生し、走
査線内に存在するデータ数分だけ発生する。これらの信
号は、図示しない同期信号発生回路によって発生される
。ページ同期信号がLowレベルの間33の選択器は、
31の初期値レジスタの保持する値を出力する。34の
加算器は副走査同期信号の立ち下がりにより加算が実行
される。34の出力は副走査ラッチ同期によって35に
ラッチされる。また、36は副走査同期信号がLowレ
ベルである間は、35の出力を出力する。38の加算器
は、36の出力と、37の主走査同期増分値を主走査同
期信号の立ち下がりにより加算が実行され、その出力は
、主走査同期信号の立ち上がりにより39にラッチされ
る。ラッチ35は、走査線の先頭のデータが対応する出
力側のアドレスを保持し、ラッチ39は走査線内の各デ
ータの対応する出力側のアドレスを与える。yoに関し
ても0式に従って全く同様に求めることが可能である。@ O □ Po Test ←1 To Hayabusa KI Toya Ichi-) When χS and yS are given to m, χo and yo are found according to ■ and ■. This can be realized, for example, with a configuration as shown in FIG. The explanation will be given below according to FIG. When calculating χS according to formula (2), the initial value offset (DC component) is set in the register 31 as an initial value. Further, a sub-scanning synchronization increment value and a main-scanning synchronization increment value are respectively set in the current ai registers 32 and 37. Setting of this series of values is executed by the CPU according to the reduction ratio and rotation angle. FIG. 4 is a timing chart showing the relationship among the page synchronization signal, sub-scanning synchronization signal, and main-scanning period signal of the circuit of FIG. 3. When the page synchronization signal falls, generation of sub-scanning synchronization signals is started and is generated for the number of scanning lines existing in the page. A main scanning synchronizing signal is generated at the fall of the sub-scanning synchronizing signal, and is generated for the number of data existing in the scanning line. These signals are generated by a synchronization signal generation circuit (not shown). While the page synchronization signal is at Low level, the selector 33 is
The value held in the initial value register 31 is output. The 34 adders execute addition at the falling edge of the sub-scanning synchronization signal. The output of 34 is latched to 35 by sub-scan latch synchronization. Further, 36 outputs the output of 35 while the sub-scanning synchronization signal is at a low level. Adder 38 adds the output of 36 and the main scanning synchronization increment value of 37 at the falling edge of the main scanning synchronizing signal, and its output is latched in 39 at the rising edge of the main scanning synchronizing signal. The latch 35 holds the output side address to which the data at the beginning of the scanning line corresponds, and the latch 39 provides the output side address to which each data in the scanning line corresponds. yo can also be determined in exactly the same way according to the 0 formula.
かくして求めたアドレスは、COSφ。The address thus obtained is COSφ.
sinφ等が一般には無理数であるため、無理数となる
。実機上では、十分なビット数をもつ小数となる。この
小数アドレスの近傍の整数アドレスを出力アドレスとし
て定める。Since sinφ etc. are generally irrational numbers, they are irrational numbers. On a real machine, it will be a decimal number with a sufficient number of bits. An integer address near this decimal address is determined as an output address.
(χD、:YD)を中心として、主走査方向にα(ls
inφl+IcosφI)の巾、副走査方向にβ(ls
inφl+1cosφ1)の巾をもつ領域内に存在する
整数アドレスに対し、各々、逆変換を行なう。この整数
アドレスを(Xo、Yo)とすると、(XD 、Yo)
に対応する入力データ側のアドレスを(Xs。(χD, :YD) in the main scanning direction
inφl+IcosφI), β(ls
Inverse conversion is performed on each integer address existing within an area having a width of inφl+1cosφ1). If this integer address is (Xo, Yo), then (XD, Yo)
The address on the input data side corresponding to (Xs.
Ys)とした時 @ [相] という関係式が成立する。Ys) @ [phase] The following relational expression holds true.
上式を第5図に示す回路で逐次求めてゆく。The above equations are successively determined using the circuit shown in FIG.
第6図は、第5図の信号のタイミングチャートである。FIG. 6 is a timing chart of the signals in FIG.
初期値オフセット(直流分)及び主走査同期増分値、副
走査同期増分値は、CPUによりあらかじめそれぞれ5
7,51.52のレジスタにセットされているものとす
る。また、XD、YDに変化があった際には1図示しな
い回路(例えばlクロック前の値を保持するレジスタと
現クロックの値とを比較する比較器とで構成される)に
より、各々53及び54のゲートをON 、OFFする
ゲート信号がLowとなる。この時ゲートは各々独立に
51及び52の値を出力し、それ以外ではLowレベル
、即ち50を出力する。主走査同期信号の立ち下がりに
より55の加算器が加算を実行し、その出力を主走査同
期信号の立ち上がりにより56にラッチする。また副走
査同期信号がLowのレベルの間は、59は、57のレ
ジスタに保持された値を出力する。そうでない時は58
の加算器の値を出力する。50のラッチは、主走査同期
の立ち上がりで、59の出力を保持する658の加算器
は、主走査同期の立ち下がりで50の保持する値と56
の保持する値との加算を実行するものである。The initial value offset (DC component), main scanning synchronization increment value, and sub-scanning synchronization increment value are each set to 5 by the CPU in advance.
7, 51, and 52 are set in registers. In addition, when there is a change in XD and YD, a circuit (not shown) (for example, composed of a register that holds the value l clocks ago and a comparator that compares the value of the current clock) is used to detect changes in XD and YD, respectively. The gate signal for turning on and off the gate 54 becomes Low. At this time, the gates each independently output values of 51 and 52, and otherwise output a Low level, that is, 50. The adder 55 executes addition upon the falling edge of the main scanning synchronizing signal, and its output is latched into the adder 56 upon the rising edge of the main scanning synchronizing signal. Further, while the sub-scanning synchronization signal is at a low level, the register 59 outputs the value held in the register 57. If not, 58
Outputs the value of the adder. The latch 50 holds the output of 59 at the rising edge of main scanning synchronization, and the adder 658 holds the value held by 50 and 56 at the falling edge of main scanning synchronization.
It performs addition with the value held by .
かくして得られたxs、ysは、χo、y。The thus obtained xs, ys are χo, y.
同様、一般には無理数であり、実機では小数で表現され
る。この値を四捨五入して得られる値をもって、出力す
べきデータの入力側アドレスとする。第7図、第8図が
ソース側とディスティネーション側とのアドレスの対応
を示している。正方格子がディスティネーション側のア
ドレス格子を示しており、正方形の中心が整数アドレス
である。平行四辺形の格子がソース側のアドレス格子を
示しており、平行四辺形の中心が整数アドレスである。Similarly, it is generally an irrational number and is expressed as a decimal in real machines. The value obtained by rounding off this value is used as the input side address of the data to be output. FIGS. 7 and 8 show the correspondence between addresses on the source side and the destination side. A square grid indicates the address grid on the destination side, and the center of the square is an integer address. A parallelogram grid represents the address grid on the source side, and the center of the parallelogram is an integer address.
第7図の文9mで与えられる長方形がχo、yoを中心
とする領域であり、A、Bが出力されるべきディスティ
ネーションアドレスである。第8図に示すよウニaが、
Aの出力として決定される。ここで、第5図で示す回路
は、uXmの面積中に入る最大の出力格子数分だけ存在
し、各々並列に動作する。また、入力側に第9図に示す
ように4木の走査線バッファをもち、1本のバッファに
データを入力中に、他の3本のバッファに入力済のデー
タをもって前記処理を行なう。データは前述の符号化さ
れたデータが走査データとして入力され、データの順に
入力のアテドレスが定まっている。かくして、入出力の
アドレスの対応づけを行ない、アフィン変換を実現する
。The rectangle given by sentence 9m in FIG. 7 is the area centered on χo and yo, and A and B are the destination addresses to be output. As shown in Figure 8, sea urchin a is
It is determined as the output of A. Here, the circuits shown in FIG. 5 exist as many as the maximum number of output grids that can fit within the area of uXm, and each circuit operates in parallel. Furthermore, as shown in FIG. 9, the input side has four scanning line buffers, and while data is being input to one buffer, the above processing is performed using data that has already been input to the other three buffers. The encoded data described above is input as scan data, and the input addresses are determined in the order of the data. In this way, input and output addresses are associated, and affine transformation is realized.
本実施例に於けるアフィン変換アルゴリズムは前述の如
くソース側のラスターデータ(今の場合、ファイルから
の読出し、リーグからの読出し、イメージメモリからの
読出しがある)を入力し、ディストネーションメモリ(
今の場合、イメージメモリ)へランダム舎アクセスで記
憶されていく。従ってアフィン変換/\−ドウエアがパ
イプライン化されている為順次入力データに対して、順
次出力を得て、ファイルからメージメモリへのデータ転
送の過程にて実行され、極めて高速な変換を行う事が出
来る。ここで画像データは前述の圧縮データを言い、ア
ドレスポイントは圧縮データでのアドレス空間での座標
を言う。As mentioned above, the affine transformation algorithm in this embodiment inputs the raster data on the source side (in this case, there are readings from the file, reading from the league, and reading from the image memory), and inputs the raster data from the destination memory (
In this case, it is stored in the image memory (image memory) through random access. Therefore, since the affine transformation/\-ware is pipelined, it sequentially obtains output for sequential input data, and is executed during the process of data transfer from the file to the image memory, making it possible to perform extremely high-speed conversion. I can do it. Here, the image data refers to the aforementioned compressed data, and the address point refers to the coordinates in the address space of the compressed data.
符合化されたデータのアフィン変換後のアドレスが決定
されると、次にブロック内の画像データの配置交換を実
行する。Once the address of the encoded data after affine transformation is determined, the arrangement of the image data within the block is then exchanged.
以下実施例を2X2のブロックで説明する。The embodiment will be explained below using 2×2 blocks.
第10図(a)は原画となる4ブロツク(A 、 B
、 C、D)内のデータを示している。Figure 10(a) shows four blocks (A, B) that form the original picture.
, C, D) are shown.
このブロックに対し、90°、180’ 。90°, 180' to this block.
2700のブロックごとの回転を前述した回転処理によ
りアドレスを発生させ、ディスティネーションメモリに
記録させ、これを再生すると、同図(b)、(c)、(
d)のようになる。同図から明らかなように原画を忠実
に再現していない、そこで回転角に応じてブロックの内
部の画素を回転させる方式をとる。同図(e)、(f)
、(g)にはブロック内の画素を90°、180°、2
70°回転させた例であり、原画への忠実性を増すこと
ができる。この回転操作は第2図(b)のコードを用い
て。When an address is generated by the rotation process described above for each block of 2700, recorded in the destination memory, and played back, the results are as shown in (b), (c), () in the same figure.
d). As is clear from the figure, the original image is not faithfully reproduced, so a method is adopted in which the pixels inside the block are rotated according to the rotation angle. Figures (e) and (f)
, (g) shows pixels in the block at 90°, 180°, 2
This is an example of rotating the image by 70 degrees, which increases the fidelity to the original image. This rotation operation is performed using the code shown in Figure 2(b).
2bitの回転コードの書き変えを行いパターンコード
はいじらずに実施できる。This can be done without changing the pattern code by rewriting the 2-bit rotation code.
任意角度の回転に関しては、90″単位にブロック内回
転角を分けて対応する。第7図は回転角を315°〜4
5°、45°〜135°。Regarding rotation of arbitrary angles, the rotation angle within the block is divided into 90" units. Figure 7 shows rotation angles of 315° to 4.
5°, 45° to 135°.
135°〜225°、225°〜315°の4つの領域
に分け、ブロック内回転を00゜90°、180°、2
70’に割りあてた例を示している。Divided into four regions: 135° to 225°, 225° to 315°, and rotated within the block by 00°, 90°, 180°, 2
70' is shown.
第12図は、第2図(a)に示したブロック符合化のデ
ータフォーマットをブロック内回転角により入れ換えて
再フォ−マツトした実施例である。(a)O’ (b
)90’ (c)180° (d)270°を示す、、
マ、σに関しては回転による変更はされず、後に続く濃
淡データの順序が変更される。(a)0°のデータフォ
ーマットがABCDの時に(b)90゜はBDACl(
c)180°はDCBA。FIG. 12 shows an embodiment in which the block encoding data format shown in FIG. 2(a) is replaced and reformatted according to the rotation angle within the block. (a) O' (b
)90' (c) 180° (d) 270° is shown.
Ma and σ are not changed by rotation, but the order of subsequent grayscale data is changed. (a) When the data format of 0° is ABCD, (b) 90° is BDACl (
c) 180° is DCBA.
(d)270°はCADBとなる。(d) 270° becomes CADB.
第13図は、ブロック内データフォーマット変換回路の
実施例である。入力信号は、X、σをバッファ80に、
残りの4つ濃淡データをバッファ81.82.83.8
4に別々に保持される。セレクタ85.86,87.8
9には図示しない制御器より回転角に応じたセレクト信
号が送られる0例えばブロック内回転角Q 0゜90’
、180°、270°をそれぞれ0゜1.2.3に対
応させると2bitのセレクト信号になる。バッファ8
1,82,83.84の出力をA、B、C,Dとし、セ
レクタ85゜86.87.88(7)入力端子x、y、
z、w+、:それぞれ対応が異なるように接続する。セ
レクト信号が1つの場合入力端子のYがそれぞれのセレ
クタの出力端子より出力されるとすると、バッファ85
.86,87.88よりそれぞれB、D、A、Cが出力
されることになる。FIG. 13 is an example of an intra-block data format conversion circuit. The input signals are X and σ to the buffer 80,
Buffer the remaining 4 grayscale data 81.82.83.8
4 are held separately. Selector 85.86, 87.8
A select signal corresponding to the rotation angle is sent from a controller (not shown) to 9.0 For example, rotation angle within the block Q 0°90'
, 180°, and 270° correspond to 0°1.2.3, respectively, resulting in a 2-bit select signal. Buffer 8
1, 82, 83.84 as A, B, C, D, selector 85° 86.87.88 (7) input terminals x, y,
z, w+,: Connected in different correspondences. When there is one select signal, if Y of the input terminal is output from the output terminal of each selector, the buffer 85
.. B, D, A, and C are output from 86, 87, and 88, respectively.
この出力値をバッファ90においてマ、σとともに再連
結すると、第12図に示したようなデータフォーマット
が完成し、バッファ90の出力信号として出力される。When this output value is recombined with ma and σ in the buffer 90, a data format as shown in FIG. 12 is completed and is output as an output signal of the buffer 90.
以上が符合化データのブロック回転およびブロック内回
転の実施例である。即ち本発明に於ては回転を伴うAF
FINE変換を行う時、mXmの圧縮データを一データ
として回転オペレーションを行う事、及びmXmの圧縮
データ内での回転オペレーションを行う事の組合せで実
行される。これは多少の画質劣化を伴うため、それを最
小限にくい止めるため
■ 節度信号(Y)に対しては小さいマトリックス(m
□Xm0)でブロック符合化又はベクトル量子化を行う
。The above are examples of block rotation and intra-block rotation of encoded data. That is, in the present invention, AF with rotation
When FINE conversion is performed, a rotation operation is performed using mXm compressed data as one data, and a rotation operation is performed within the mXm compressed data. This is accompanied by some image quality deterioration, so in order to minimize this, a small matrix (m
□Xm0) performs block encoding or vector quantization.
■ 色差信号(1,Q)に対しては、比較的人間の目に
は高分解性を必要としないため大きいマトリックス(m
lXml : ml>no)でブロック符合化又はベク
トル量子化あるいは直接平均データでもつ。■ For the color difference signal (1, Q), a large matrix (m
lXml: ml>no) with block encoding, vector quantization, or direct average data.
以上2点に注意する必要がある。It is necessary to pay attention to the above two points.
次に、CRTコントローラ9について説明する。Next, the CRT controller 9 will be explained.
第14図はCRTコントローラ9の機能を示した図で、
5は圧縮されたイメージメモリ、9はCRTコントロー
ラ、10はカラーCRT、8はCPU、356はCPU
からセットされるパラメータレジスタである。本発明で
はメモリアドレスをX、Yの2次元として扱っているが
、このアドレスを一次元のアドレスに変換して用いるこ
とも可能である。第14図のCRTコントローラの機能
は、メモリ5の任意の始アドレス(χ01yO)を持つ
任意大きさくχw 、 !/ W)の矩形領域をたてT
Oドツト、よこxoドツトの解造度のCRTに表示出力
することである。任意の値χo、yo、χW。FIG. 14 is a diagram showing the functions of the CRT controller 9.
5 is compressed image memory, 9 is CRT controller, 10 is color CRT, 8 is CPU, 356 is CPU
This is a parameter register set from . In the present invention, memory addresses are treated as two-dimensional (X and Y), but it is also possible to convert these addresses into one-dimensional addresses. The function of the CRT controller shown in FIG. 14 is as follows: χw, ! / W) make a rectangular area T
It is to display and output on a CRT with resolution of O dots and horizontal xo dots. Arbitrary values χo, yo, χW.
yWには範囲のみならず、2や4の倍数でなければなら
ないという制約はつき得る。第15図はこのCRTコン
トローラの実施例で、10工。In addition to the range, yW can also be constrained to be a multiple of 2 or 4. Figure 15 shows an example of this CRT controller, which took 10 steps.
102.103,104はパラメータレジスタ、105
,106は加算器、107,108はセレクタ、109
,110はアドレスラッチまたはレジスタである。11
2はCRT同期回路で121は水平同期信号、122は
垂直同期信号、123は画素クロックである。111は
データラッチ、128はメモリから読みだされたカラー
信号、124はCRTへのカラー信号で、125は水平
アドレス(X)、126は垂直アドレス(Y)である。102, 103, 104 are parameter registers, 105
, 106 is an adder, 107, 108 is a selector, 109
, 110 are address latches or registers. 11
2 is a CRT synchronization circuit, 121 is a horizontal synchronization signal, 122 is a vertical synchronization signal, and 123 is a pixel clock. 111 is a data latch, 128 is a color signal read from the memory, 124 is a color signal to the CRT, 125 is a horizontal address (X), and 126 is a vertical address (Y).
CRT同期回路112により垂直同期信号122が発生
され、さらに水平同期信号121、画素クロック123
が発生される。121によってYアルレスラッチ110
にとり込まれるアドレスは122がONの間、108に
よっては始値yo102が選択されているので、yOと
なる。また、123によってXアドレスチッチ109に
とり込まれるアドレスは121がONの間107によっ
ては始値χ0101が選択されているのでχ0となる。A vertical synchronization signal 122 is generated by a CRT synchronization circuit 112, and a horizontal synchronization signal 121 and a pixel clock 123 are also generated.
is generated. Y Arles Latch 110 by 121
Since the opening price yo102 is selected by 108 while 122 is ON, the address taken in is yO. Further, the address taken into the X address check 109 by 123 becomes χ0 since the opening price χ0101 is selected by 107 while 121 is ON.
その他の場合Xアドレスチッチ109は1クロツク(=
1ドツト)にχw / X pだけ増加し、メモリアド
レスは更新され、X方向のスキャンがか六幻、為−月こ
かふ一未平同断信暑121がONになり、画素クロック
がONになるとXアドレスチッチ109はχOにリセッ
トされる。またYアドレスランチ110は1水平開期毎
にyw/YDだけ増加し、メモリアドレスは更新され、
X方向のスキャンがなされることになる。In other cases, the X address check 109 is 1 clock (=
1 dot) increases by χw/Xp, the memory address is updated, and the scan in the Then, the X address switch 109 is reset to χO. Further, the Y address launch 110 increases by yw/YD every horizontal opening period, and the memory address is updated.
A scan will be performed in the X direction.
第12図はCRT上で矩形合成をすることが可能なCR
Tコントローラの機能を示した図である。CRTIOに
表示されている矩形画像130.131はメモリ5上に
領域132,133として保存されている画像である。Figure 12 shows a CR that allows rectangular composition on a CRT.
It is a figure showing the function of T controller. Rectangular images 130 and 131 displayed on the CRTIO are images stored as areas 132 and 133 on the memory 5.
今は画像131の上に画像130が重なっており、画像
130がのっている部分の画像131は表示されていな
い。これは第15図に示した構成を拡張して得ることが
できる。第17図にその構成例を示す。第17図におい
て、134,135゜136.137は領域内アドレス
生成モジュールで内部の構成はすべて等しい。134は
最高の優先順位を持つ領域の水平アドレス生成モジュー
ル、135は同じく垂直アドレス生成モジュール、13
6は第2の優先順位を持つ領域の水平アドレス生成モジ
ュール、137は同シく垂直アドレス生成モジュールで
ある。148は水平ディスプレイアドレスカウンタ、1
49は垂直ディスプレイアドレスカウンタであり各々水
平ディスプレイアドレス150.垂直ディスプレイアド
レス151を出力する。次にアドレス生成モジュールに
ついて説明する。Currently, the image 130 is superimposed on the image 131, and the portion of the image 131 where the image 130 is placed is not displayed. This can be obtained by expanding the configuration shown in FIG. FIG. 17 shows an example of its configuration. In FIG. 17, reference numerals 134, 135, 136, and 137 denote intra-area address generation modules, all of which have the same internal configuration. 134 is a horizontal address generation module for the area with the highest priority; 135 is also a vertical address generation module; 13
6 is a horizontal address generation module for the area having the second priority, and 137 is also a vertical address generation module. 148 is a horizontal display address counter, 1
49 is a vertical display address counter and each horizontal display address 150. Outputs vertical display address 151. Next, the address generation module will be explained.
134内部で138は表示開始ディスプレイアドレスを
保持するレジスタ、139は表示終了ディスプレイアド
レスを保持するレジスタ、152.140は比較器で、
141の論理回路により信号150がレジスタ138と
レジスタ139の領域に含まれているか否かを判断する
。領域に含まれていれば、このアドレス生成モジュール
がメモリアドレスを出力する権利を持つ。ただし、それ
は、X、Yの両方共に成立した時であり、このモジュー
ル134゜135によるアドレス出力が可能となるのは
信号153,154が共に真となった時であり、論理回
路159により出力許可信号155が生成され、出力バ
ッファ147がイネーブルになりメモリ水平アドレスバ
ス125にアドレスレジスタ146の内容が出力される
。同様にモジュール135からメモリ垂直アドレスバス
126にアドレスが出力される。モジュール134、.
135のどちらかの領域内信号すなわち153または1
54が偽となると、論理回路159の出力も偽となり、
モジュール134゜135の出力はディスエーブルとな
る。この時、第2の優先順位を持つモジュール136゜
137の領域内信号すなわち156,157が真であれ
ば、論理回路160の出力が真となり。Inside 134, 138 is a register that holds the display start address, 139 is a register that holds the display end display address, 152 and 140 are comparators,
A logic circuit 141 determines whether the signal 150 is included in the register 138 and register 139 area. If it is included in the area, this address generation module has the right to output the memory address. However, this is only when both X and Y are established, and address output by this module 134 and 135 becomes possible when both signals 153 and 154 become true, and the output is enabled by the logic circuit 159. Signal 155 is generated to enable output buffer 147 and output the contents of address register 146 onto memory horizontal address bus 125. Similarly, an address is output from module 135 to memory vertical address bus 126. Modules 134, .
135, i.e. 153 or 1
54 becomes false, the output of the logic circuit 159 also becomes false,
The outputs of modules 134 and 135 are disabled. At this time, if the intra-region signals 156 and 157 of the modules 136 and 137 having the second priority are true, the output of the logic circuit 160 becomes true.
モジュール136.137のアドレス出力がメモリアド
レスバス125.126に出力される。論理回路160
の出力が偽となると第3の優先順位を持つモジュールが
テストされ、以下、次々に下位の優先順位を持つものへ
とアドレス出力槽が移行することになる。勿論、自分よ
り上位の優先順位を持つモジュールがアドレス出力槽を
獲得した時は、その上位のモジュールがアドレス出力を
することになる。一方、出力するアドレスについて説明
する。モジュール134内においてレジスタ143は読
み出し開始メモリアドレスを保持するレジスタ、142
はアドレス増分値を保持するレジスタであり。The address outputs of modules 136.137 are output on memory address bus 125.126. logic circuit 160
When the output becomes false, the module with the third priority is tested, and the address output tank is subsequently shifted to modules with lower priorities one after another. Of course, when a module with a higher priority than itself acquires the address output tank, that higher module will output the address. On the other hand, the output address will be explained. In the module 134, a register 143 is a register 142 that holds the read start memory address.
is a register that holds the address increment value.
145は153が偽である間、アドレスレジスタ146
にレジスタ143の出力が入力されるように構成された
セレクタ、144はレジスタ146に増分レジスタ14
2の内容を加えていく加算器である。信号153が真に
なるとレジスタ146はレジスタ142の内容だけクロ
ック毎に増加する。以上のように、第17図の構成で第
16図に示したCRT画面上での矩形合成をすることが
できる。145 is the address register 146 while 153 is false
A selector 144 is configured such that the output of the register 143 is input to the register 146;
This is an adder that adds the contents of 2. When signal 153 goes true, register 146 is incremented by the contents of register 142 every clock. As described above, rectangular composition on the CRT screen shown in FIG. 16 can be performed with the configuration shown in FIG. 17.
第18図は、CRTコントローラの機能を示した図で任
意の自由形状の画像をCRT上で合成出力することを可
能にしたものである。第18図において、306はマス
ク形状記憶であり、第18図の例の場合、画像領域13
3に対応してマスク領域162が、画像領域132に対
応してマスク領域161が定義され、マスク領域161
にはハート形のマスクが書き込まれている。この時、第
18図10のCRTに示すように画像領域132がハー
ト形に切りぬかれて画像領域133の上に重畳されて表
示される。FIG. 18 is a diagram showing the functions of the CRT controller, which enables arbitrary free-form images to be synthesized and output on the CRT. In FIG. 18, 306 is a mask shape memory, and in the case of the example in FIG.
A mask area 162 is defined corresponding to 3, a mask area 161 is defined corresponding to the image area 132, and a mask area 161 is defined corresponding to the image area 132.
A heart-shaped mask is written on it. At this time, as shown on the CRT in FIG. 18, the image area 132 is cut out into a heart shape and displayed superimposed on the image area 133.
このような処理を行うCRTコントローラ9は、画像メ
モリ5の読み出しに先立ってマスク形状記憶306を先
読みすることによって実現する。たとえば本実施例では
垂直アドレス方向に1だけ先のラインを読み出し、マス
クの制御を行う。第18図のCRTIOで垂直アドレス
yに表示すべきマスク画像データが領域133では先頭
よりyo、領域132では先頭よりylだけ進んだマス
クぐあるときマスク形状記tα306上でのマスク領域
162はラインy。The CRT controller 9 performs such processing by pre-reading the mask shape memory 306 before reading out the image memory 5. For example, in this embodiment, a line one line ahead in the vertical address direction is read out to control the mask. When the mask image data to be displayed at the vertical address y in CRTIO in FIG. 18 is a mask that is advanced by yo from the head in area 133 and yl from the head in area 132, the mask area 162 on the mask shape notation tα306 is on the line y. .
+1を、領域161はラインy1+1をそれぞれ読み出
して、次のCRTIOの垂直アドレスy+1にそなえる
ことを可能にしている。第19図はCRTコントローラ
の実施例である。第19図は、第17図の1対の水平・
垂直モジュールに対応している。第19図において、1
61.162,167.168はディスプレイアドレス
を保持するレジスタで先の実施例と同様、このレジスタ
の指定するディスプレイ上の矩形の領域が、このモジュ
ールによって制御される。173は2マスク分のマスク
を保持できる2ラインマスクデータバツフアであり、本
実施例の特徴となるものである。l垂直7197分だけ
先読みされたマスクデータはカウンタ174によりアド
レスされ、論理回路176に入力される。論理回路17
6は図示しないカウンタによって生成されたディスプレ
イ上のアドレスXo、Yoが当モジュールが扱うべき矩
形領域内に含まれており、かつマスクデータがONであ
ることによって真の出力を行う。この信号は論理回路1
77に入力され、当モジュールよりも優先度の高いモジ
ュールからの信号PRI ORが真であるとき、メモリ
アドレスXDAT、YDATを出力するようにデータア
ドレスバッファ179,178を駆動する。マスクデー
タMSKDTは表示すべきデータの転送中もマスクデー
タバッファ173に読み込みを続けている。用いられる
マスクデータはマスク形状記憶306から読み込まれる
が表示データアドレスより先行して読み出す必要がある
ので、データアドレスレジスタ166.172より1タ
イミング先行したアドレスを保持するマスクアドレスレ
ジスタ165.171から出力される。このとき、モジ
ュールの個数が複数個であるときはマスク読み込みが異
なったモジュールから同時になされる場合があり得るが
ENMSK信号により時分割してマスクアドレスへスの
使用許可を与えて衝突を防いでいる。+1, the area 161 makes it possible to read each line y1+1 and prepare it for the vertical address y+1 of the next CRTIO. FIG. 19 shows an embodiment of the CRT controller. Figure 19 shows the pair of horizontal and
Compatible with vertical modules. In Figure 19, 1
61.162, 167.168 are registers that hold display addresses, and as in the previous embodiment, the rectangular area on the display specified by these registers is controlled by this module. A 2-line mask data buffer 173 is capable of holding two masks, and is a feature of this embodiment. The mask data read ahead by l vertical 7197 minutes is addressed by the counter 174 and input to the logic circuit 176. logic circuit 17
6 performs true output when addresses Xo and Yo on the display generated by a counter (not shown) are included within the rectangular area to be handled by this module and the mask data is ON. This signal is logic circuit 1
77, and when the signal PRI OR from a module with a higher priority than this module is true, data address buffers 179 and 178 are driven to output memory addresses XDAT and YDAT. The mask data MSKDT continues to be read into the mask data buffer 173 even while the data to be displayed is being transferred. The mask data to be used is read from the mask shape memory 306, but since it is necessary to read it before the display data address, it is output from the mask address register 165.171 that holds an address that is one timing ahead of the data address register 166.172. Ru. At this time, when there are multiple modules, masks may be read from different modules at the same time, but collisions are prevented by giving permission to use the mask address in a time-sharing manner using the ENMSK signal. .
以上のように本実施例によれば、任意形状の画像を高速
、高精細にディスプレイ上で重畳表示することが可能で
ある0本実施例によるCRTコントローラ画像データそ
のものは書き換えをせずに重畳ができるので、持ち時間
もなく処理が可能であることが特徴である。As described above, according to this embodiment, it is possible to display images of arbitrary shapes in a superimposed manner on a display at high speed and with high definition. It is characterized by the fact that it can be processed in no time.
次に画(り゛編集の機能及び操作について述べる。Next, we will discuss the functions and operations of image editing.
第−表は本装置に於ける各種画像編集機能を示す。Table 1 shows various image editing functions in this device.
第20図は編集操作の概略のフローである。FIG. 20 is a schematic flow of editing operations.
今複数枚の画像を編集合成する事を想定する。Now assume that you want to edit and combine multiple images.
画像入力処理200はまずこの複数枚の画像を読み取り
画像ファイル用のメモリーへしまう操作及び処理を意味
する。この時、ファイル容量を少くするため前述の圧縮
データを用いる。その後部品処理を行うか、レイアウト
処理を行うかを204に於て選択する。部品処理201
とは1枚の画像の内の修正・変換等の処理を行う第
−表
もので第−表のAの項目が概当する。レイアウト処理2
02は出来上った部品としての複数の画像データのレイ
アウトを決める処理で画像の回転、変倍、移動等の処理
を行うアフィン変換と、合成処理を行う。第−表のBの
項目に相当する。Image input processing 200 means the operation and processing of reading the plurality of images and storing them in a memory for image files. At this time, the aforementioned compressed data is used to reduce the file capacity. Thereafter, in step 204, it is selected whether to perform component processing or layout processing. Parts processing 201
is a process that performs processing such as correction and conversion within one image.
-Items in Table A generally apply. Layout processing 2
02 is a process for determining the layout of a plurality of image data as completed parts, and performs affine transformation for processing images such as rotation, scaling, and movement, and compositing processing. This corresponds to item B in Table 1.
ここで部品処理は画像データを直接変換する事が必要で
あるが、レイアウト処理はレイアウトパラメータ情報(
例えば変倍率、回転角移動後の位置等)を記憶しておく
だけでよい。従ってレイアウト処理は画像データを間引
いてディスプレイへ表示してパラメータを抽出すればよ
い。Here, component processing requires direct conversion of image data, but layout processing requires layout parameter information (
For example, it is only necessary to memorize the variable magnification, the position after rotation angle movement, etc.). Therefore, for layout processing, it is sufficient to thin out the image data, display it on the display, and extract the parameters.
かかる処理が終了した段階で、次に実画像データ203
を行う。これは出来上った部品データをレイアウト争パ
ラメータの下でイメージeメモリ上へ合成編集していく
。かかる処理が終了後イメージ・メモリのデータをプリ
ンターへ転送しプリンター出力206を行う。Once this processing is completed, the actual image data 203
I do. This combines and edits the completed part data onto the image e-memory under the layout competition parameters. After this processing is completed, the data in the image memory is transferred to the printer and output to the printer 206 is performed.
第21図は画像入力処理200を詳しく説明したもので
、まず、リーグで原稿読み取り207を行い、データを
前述の圧縮器で圧縮した後(208)、 ファイルとし
て例えばハードやディスク等へ登録する。この操作を原
稿がある間繰り返し、読みとる原稿が無くなると終了す
る(210)。FIG. 21 shows a detailed explanation of the image input process 200. First, the league reads the manuscript 207, compresses the data using the compressor described above (208), and then registers it as a file on, for example, a hard drive or disk. This operation is repeated as long as there are originals, and ends when there are no more originals to read (210).
第22図は部品処理の内容を示したもので、まず何を行
うか処理項目の選択211を行う。FIG. 22 shows the contents of component processing. First, a processing item is selected 211 to determine what to do.
先ず色修正212は画像データをファイル(File)
からイメージ・メモリへ転送しくイメージメモリがディ
スプレイのビデオ−メモリを兼ねているので即時にディ
スプレイに出力される。)、ディスプレイを見つつ色修
正を行う。かかる操作はイメージ・メモリ内の画像デー
タは変更せずディスプレイ(CRT)への出力へ(7)
Look up Ta b 1 e (LUT)
の変更にて行われる(216)。これでよいと思う画像
になった時のLUTを記憶する(220)。First, color correction 212 saves the image data to a file (File).
Since the image memory also serves as the display's video memory, the data is immediately output to the display. ), perform color correction while looking at the display. This operation does not change the image data in the image memory and outputs it to the display (CRT) (7)
Look up Ta b 1 e (LUT)
(216). The LUT used when the image becomes a desired image is memorized (220).
輪郭修正213は、同様にCRTへ出力するケーブル上
に空間フィルター演算器を置き実画像データはいじらな
い。そして空間フィルターの情報(例えば周知のラプラ
シアンのカーネル又は係数)等を記憶する(221)。Contour correction 213 similarly places a spatial filter calculator on the cable that outputs to the CRT, and does not modify the actual image data. Information about the spatial filter (for example, the kernel or coefficients of the well-known Laplacian) is stored (221).
次に切抜きマスク214はイメージメモリと並列に置か
れた1bit planeのマスクメモリの書換えを
行う。これは画像の領域を決めるもので、実画像データ
はいじらない(21B)。その他の処理は実データ修正
215と呼ばれる処理を行う。これはイメージ・メモリ
上に書かれた実画像データをCPUから直接アクセスし
て書き換えるもので、実画像データに画像データを書き
込んだり消したり、コピーしたりする。Next, the cutout mask 214 rewrites a 1-bit plane mask memory placed in parallel with the image memory. This is for determining the image area and does not modify the actual image data (21B). Other processing is called actual data correction 215. This rewrites the real image data written on the image memory by directly accessing it from the CPU, and writes, erases, or copies image data to the real image data.
以上の処理が終了したら実データ及びマスク・データを
ファイルとしてハード拳ディスク登録222する。When the above processing is completed, the actual data and mask data are registered as files on the hard disk 222.
第23図はレイアウト処理について記したものである。FIG. 23 describes layout processing.
まずファイルから画像データをイメージ・メモリーへ書
込む(223)。この時、前述の如く間引きデータでよ
く複数枚の画像データがイメージメモリ内へとりこまれ
る。かかる複数枚の画像データをCRTコントローラに
より合成変倍(225)してディスプレイ上に出力され
る。この時画像の回転はイメージメモリー上の別の領域
ヘアフィン変換器4によりラスターオペレーション(R
OP)で書き変えられる(224)。一方変倍はCRT
コントローラでは整数変倍しか出来ないため、同様アフ
ィン変換器4により任意変倍を行う。出力画像領域を制
限するマスクメモリのデータ作成226を次に行う。以
上の操作が各画像に対して行われ、レイアウトパラメー
タが抽出される(227)。First, image data is written from the file to the image memory (223). At this time, as described above, a plurality of image data may be taken into the image memory using thinned data. The plurality of image data are synthesized and scaled (225) by a CRT controller and output on a display. At this time, the rotation of the image is performed using a raster operation (R
OP) can be rewritten (224). On the other hand, variable magnification is CRT
Since the controller can only perform integer scaling, the affine transformer 4 similarly performs arbitrary scaling. Data creation 226 for a mask memory that limits the output image area is then performed. The above operations are performed on each image, and layout parameters are extracted (227).
第24図は以上の部品データ及びレイアウトパラメタに
基づいて@終画像データを形成する。このプロセスは全
くの無人化が可能である。まず下に重ねられる画像部品
データから先に処理されていく。1枚目の画像のレイア
ウトパラメター及びマスクデーターがパイプライン用A
FFINE変換用のレジスタ、LUT及びマスクメモリ
(これはイメージメモリと並列に置かれた1bitメモ
リ)等ヘセットされる。In FIG. 24, final image data is formed based on the above component data and layout parameters. This process can be completely automated. First, the image component data that is superimposed on the bottom is processed first. The layout parameters and mask data of the first image are pipeline A.
The FFINE conversion register, LUT, mask memory (this is a 1-bit memory placed in parallel with the image memory), etc. are set.
次にファイルから、のデータがこれらパイプライン争プ
ロセサを経てイメージ会メモリへ転送される。その結果
ラスタm−オペレーション(ROF)により処理される
。Data from the file is then transferred to the image memory through these pipeline processors. The result is processed by a raster m-operation (ROF).
かかる処理が部品データの数の分だけ(nmaXだけ)
くり返されイメージメモリ上ヘオーバライトされる(2
30,231)。This processing is equal to the number of parts data (only nmaX)
The image memory is repeatedly overwritten (2
30,231).
次にプリンターへの出力について述べる。Next, we will discuss output to the printer.
編集結果の画像データはイメージメモリ上に作られ、プ
リンター側へ転送される。プリンターの出力方式、例え
ば面順次・線順次・点順次かによりイメージメモリから
の送出状態が異る。かかる変換は第1図の変換器12で
行われる。それに先立ち、圧縮データを通常の画素デー
タへ復号器6で復号しておく。The image data resulting from editing is created on the image memory and transferred to the printer side. The state of output from the image memory differs depending on the output method of the printer, for example, whether it is field sequential, line sequential, or dot sequential. Such conversion is performed in converter 12 of FIG. Prior to that, the compressed data is decoded into normal pixel data by a decoder 6.
プリンター7は通常1台が接続される。しかし複数台の
プリンターを接続することにより、より高速の出力が可
能となり、特に大量の出力を必要とする出版、印刷分野
では有要である。Usually, one printer 7 is connected. However, by connecting multiple printers, faster output is possible, which is especially important in the publishing and printing fields, which require a large amount of output.
本イメージ・メモリへの画像データの記憶形態は、濃度
データを圧縮し、再び濃度データへ戻す方式であるため
、複数台のプリンターへつないだ時生じる色相のズレ(
これは個々のプリンターの出来具合により異る)を各々
、ある濃度データから別のある濃度データへ移すLoo
kUp Table(LUT)により変換番補正が出
来る。The image data is stored in this image memory by compressing the density data and returning it back to density data, so there may be hue discrepancies that occur when connecting to multiple printers (
This varies depending on the performance of each printer) from one density data to another density data.
The conversion number can be corrected using the kUp Table (LUT).
(これは通常イメージ・メモリが2値化された後の状態
で記憶する方式であれば困難である。)かかるLUTに
よる個別プリンターへの調整機構は変換器12に含まれ
る。(This is usually difficult if the image memory is stored in a binarized state.) The converter 12 includes an adjustment mechanism for individual printers using such a LUT.
カラープリンタ7に於てはかかる補正された画像データ
をもとに通常の方法、例えばディザ法等により画像出力
される。The color printer 7 outputs an image based on the corrected image data using a normal method such as a dither method.
(V)効果
本発明は以上述べた如く圧縮データを用いた画像編集を
行う事と、高速編集に適したシステムアーキテクチャ−
をとる事により画像編集を高速、高機能に行うことが出
来たものである。(V) Effects As described above, the present invention provides image editing using compressed data and a system architecture suitable for high-speed editing.
By taking these steps, it was possible to perform image editing at high speed and with high functionality.
第1図は木実流側のカラー編集処理装置の全体ブロック
図、第2図は符号化データのデータ形式を示す図、第3
図はアフィン変換器のアドレス生成部のブロック図、第
4図はアドレス生成部のタイミングチャートを示す図、
第5図はアドレス生成部のブロック図、第6図はアドレ
ス生成部のタイミングチャート図、第7図、第8図は原
画像と処理画像のアドレス対応を示した図、第9図はア
フィン変換用ラインバッファのブロック図、第10図は
ブロック回転とブロック内回転の概念図、第11図はブ
ロック内回転を示した図、第12図は回転によって符号
が受ける処理を示した図、第13図は回転のブロック図
、第14図。
第16図、第18図はCRTコントローラの概念図、第
15図、第17図、第19図、はCRTコントローラの
ブロック図、第20図、第21図、第22図、第23図
、第24図は編集処理手順を示したフローチャート図で
ある。Figure 1 is an overall block diagram of the color editing processing device on the Kinomi style side, Figure 2 is a diagram showing the data format of encoded data, and Figure 3 is a diagram showing the data format of encoded data.
The figure is a block diagram of the address generation section of the affine transformer, and FIG. 4 is a diagram showing a timing chart of the address generation section.
Figure 5 is a block diagram of the address generation unit, Figure 6 is a timing chart of the address generation unit, Figures 7 and 8 are diagrams showing address correspondence between the original image and the processed image, and Figure 9 is affine transformation. Fig. 10 is a conceptual diagram of block rotation and intra-block rotation, Fig. 11 is a diagram showing intra-block rotation, Fig. 12 is a diagram showing the processing that a code undergoes due to rotation, Fig. 13 The figure is a block diagram of rotation, Figure 14. 16 and 18 are conceptual diagrams of the CRT controller, FIGS. 15, 17, and 19 are block diagrams of the CRT controller, and FIGS. 20, 21, 22, 23, and FIG. 24 is a flowchart showing the editing processing procedure.
Claims (7)
出力する出力装置とを備え、複数の画像から一つの画像
を編集加工する画像編集処理装置において、取り扱うカ
ラー画像データが画素データを複数個集めた符号化デー
タであり、ランダム・アクセス可能なイメージメモリを
有することを特徴とする画像編集処理装置。(1) In an image editing processing device that is equipped with a device that inputs original image data and an output device that outputs a processed image, and that edits and processes one image from multiple images, the color image data that is handled includes pixel data. An image editing processing device comprising encoded data collected from a plurality of pieces and having a randomly accessible image memory.
スプレイ装置へ出力するためのビデオメモリを兼用する
ことを特徴とする画像編集処理装置。(2) The image editing processing device according to item 1, wherein the image memory also serves as a video memory for outputting images to a display device.
に対して行われることを特徴とする画像編集処理装置。(3) The image editing processing device according to item 1, wherein image editing processing is performed on the encoded data.
ータに対して前記イメージメモリ上へランダムアクセス
で記憶する為のアフィン変換用演算路を有することを特
徴とする画像編集処理装置。(4) The image editing processing device according to item 1, further comprising an affine transformation calculation path for storing input raster data in the image memory by random access during image editing processing.
は画素データを複数個集めたブロックで符号化したデー
タを単位に行う事と該ブロックの内部で行う事とを組合
せて行うことを特徴とする画像編集処理装置。(5) In Section 4, the rotation operation in the affine transformation is performed by a combination of performing it for each block of encoded data and performing it inside the block. An image editing processing device characterized by:
の色差信号の3つのカラー信号から成ることを特徴とす
る画像編集処理装置。(6) The image editing processing device according to item 1, wherein the encoded data consists of three color signals: a luminance signal and two color difference signals.
の平均値データ及び回転データを符号内に持つことを特
徴とする画像編集処理装置。(7) The image editing processing device according to item 1, wherein the encoded data has average value data and rotation data of m×m pixels in the code.
Priority Applications (10)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP28163185A JPH0679322B2 (en) | 1985-12-13 | 1985-12-13 | Image editing processor |
EP93203482A EP0597556B1 (en) | 1985-12-13 | 1986-12-12 | Image processing apparatus |
EP93203481A EP0597555B1 (en) | 1985-12-13 | 1986-12-12 | Image processing apparatus |
EP86309702A EP0235456B1 (en) | 1985-12-13 | 1986-12-12 | Image processing apparatus and method with blocks of compressed data |
DE3650771T DE3650771D1 (en) | 1985-12-13 | 1986-12-12 | Image processing device |
DE3650764T DE3650764T2 (en) | 1985-12-13 | 1986-12-12 | Image processing device |
DE3650717T DE3650717T2 (en) | 1985-12-13 | 1986-12-12 | Image processing apparatus and method using blocks of compressed data |
US08/112,374 US5861892A (en) | 1985-12-13 | 1993-08-27 | Image processing apparatus using compressed-data processing |
US08/221,450 US5485557A (en) | 1985-12-13 | 1994-04-01 | Image processing apparatus |
US08/977,046 US5812146A (en) | 1985-12-13 | 1997-11-25 | Image processing apparatus using compressed data processing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP28163185A JPH0679322B2 (en) | 1985-12-13 | 1985-12-13 | Image editing processor |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS62140176A true JPS62140176A (en) | 1987-06-23 |
JPH0679322B2 JPH0679322B2 (en) | 1994-10-05 |
Family
ID=17641803
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP28163185A Expired - Fee Related JPH0679322B2 (en) | 1985-12-13 | 1985-12-13 | Image editing processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0679322B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5572499A (en) * | 1991-04-10 | 1996-11-05 | Canon Kabushiki Kaisha | Image processing apparatus for storing image data in storage medium and/or for reproducing image stored in storage medium |
JP2011003191A (en) * | 2009-06-19 | 2011-01-06 | Siliconfile Technologies Inc | Apparatus and method for rotating image embodied without using memory |
-
1985
- 1985-12-13 JP JP28163185A patent/JPH0679322B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5572499A (en) * | 1991-04-10 | 1996-11-05 | Canon Kabushiki Kaisha | Image processing apparatus for storing image data in storage medium and/or for reproducing image stored in storage medium |
JP2011003191A (en) * | 2009-06-19 | 2011-01-06 | Siliconfile Technologies Inc | Apparatus and method for rotating image embodied without using memory |
Also Published As
Publication number | Publication date |
---|---|
JPH0679322B2 (en) | 1994-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5861892A (en) | Image processing apparatus using compressed-data processing | |
US5034806A (en) | Image processing apparatus and method | |
JPH01184581A (en) | Document image processor | |
EP0399663A1 (en) | An electronic image progressing system | |
JPS62140176A (en) | Image editing processor | |
JP2575641B2 (en) | Image editing processing method | |
JP2653781B2 (en) | Image editing processing method | |
JPH07118002B2 (en) | Image processing device | |
JP2974596B2 (en) | Color image processing equipment | |
JP2703223B2 (en) | Color image processing equipment | |
JP2862498B2 (en) | Image processing method | |
JPS62140178A (en) | Image editing processor | |
JP2821452B2 (en) | Color image processing method | |
JPS62140549A (en) | Image editing processor | |
JPH05284347A (en) | Color picture output device | |
JP2003309719A (en) | Image processing apparatus and image processing method | |
JP2744231B2 (en) | Image processing device | |
JPH03291059A (en) | Color picture encoding device | |
JP2744230B2 (en) | Image processing device | |
JP2744229B2 (en) | Image processing device | |
JP2737869B2 (en) | Image processing method | |
JP3659016B2 (en) | Color image processing device | |
JPS63184474A (en) | Picture processing unit | |
JPH07121692A (en) | Device and method for image processing | |
JPS6135072A (en) | Picture processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |