[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2006068289A1 - 学習装置と学習方法および学習プログラム - Google Patents

学習装置と学習方法および学習プログラム Download PDF

Info

Publication number
WO2006068289A1
WO2006068289A1 PCT/JP2005/023997 JP2005023997W WO2006068289A1 WO 2006068289 A1 WO2006068289 A1 WO 2006068289A1 JP 2005023997 W JP2005023997 W JP 2005023997W WO 2006068289 A1 WO2006068289 A1 WO 2006068289A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pixel
motion
student
student image
Prior art date
Application number
PCT/JP2005/023997
Other languages
English (en)
French (fr)
Inventor
Takahiro Nagano
Tetsujiro Kondo
Tsutomu Watanabe
Junichi Ishibashi
Hisakazu Shiraki
Naoki Fujiwara
Masanori Kanemaru
Shinichiro Kaneko
Yasuhiro Suto
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to JP2006549084A priority Critical patent/JP4872672B2/ja
Priority to US11/722,141 priority patent/US7940993B2/en
Priority to EP05822508A priority patent/EP1830562A4/en
Priority to CN2005800439785A priority patent/CN101088281B/zh
Publication of WO2006068289A1 publication Critical patent/WO2006068289A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/142Edging; Contouring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection

Definitions

  • the present invention relates to a learning device, a learning method, and a learning program. Specifically, based on the set amount and direction of motion, a student image is generated by adding motion blur to the teacher image, and the pixel value of the pixel in the student image corresponding to the target pixel in the teacher image is set. Based on this, the class of the target pixel is determined. Also, because the main term that mainly contains the component of the pixel of interest in the motion object in which motion blur occurs in the student image is extracted, the spatial position of the pixel of interest in the teacher image is almost the same as the spatial position of the pixel of interest. Extract at least the pixel value of.
  • a processing coefficient for predicting the target pixel in the teacher image based on the extracted pixel value is performed for each detected class.
  • a student image is generated by changing at least one of the movement amount and the movement direction at a specific ratio.
  • Data acquired using this sensor is information obtained by projecting onto real-time information (eg, light) force and a space-time of a lower dimension than the real world.
  • the information obtained by projection has distortion caused by projection.
  • an object moving in front of a stationary background is imaged with a video camera and converted into an image signal, it is displayed based on the image signal because the real-world information is sampled and converted into data.
  • a motion blur that causes a moving object to blur occurs as a distortion caused by projection.
  • the image object corresponding to the foreground object is detected by detecting the outline of the image object corresponding to the foreground object included in the input image.
  • the motion vector of the image object ⁇ ⁇ corresponding to the coarsely extracted foreground object is detected, and the motion vector and the motion vector position information are used to detect the motion vector. Reduction of blur is performed. Disclosure of the invention
  • the learning device adds a motion blur to a teacher image based on a motion amount setting unit that sets a motion amount, a motion direction setting unit that sets a motion direction, and a motion amount and a motion direction.
  • the spatial position of the pixel of interest in the teacher image A prediction tap extraction unit that extracts at least pixel values of pixels in substantially the same student image, a plurality of pixel values extracted by the prediction tap extraction unit at least for each movement direction, and a teacher image
  • a coefficient generation unit that generates a processing coefficient for predicting the target pixel in the teacher image from the pixel value of the pixel extracted by the prediction tap extraction unit, and the student image generation unit Definite
  • adding a motion blur to a teacher image Shinare and generates a student image.
  • the learning method includes a movement amount setting step for setting a movement amount, and a movement direction.
  • the student image generation step of generating a student image by adding motion blur to the teacher image based on the motion amount and the motion direction, and the motion object in which motion blur is generated in the student image
  • a prediction tap extracting step of extracting at least a pixel value of a pixel of the student image ⁇ that is substantially the same as the spatial position of the pixel of interest in the teacher image;
  • a teacher image is obtained from the pixel values of the pixels extracted by the prediction tap extraction process based on the relationship between the pixel values of the pixels extracted by the prediction tap extraction unit and the target pixel in the teacher image for each set of movement directions.
  • a coefficient generation process for generating a processing coefficient for predicting a target pixel in the image. In the student image generation process, a student image that does not add motion blur to the teacher image is generated at a specific ratio. Is.
  • the learning program provides a computer with motion blur on a teacher image based on a motion amount setting step for setting a motion amount, a motion direction setting step for setting a motion direction, and a motion amount and a motion direction.
  • a student image generation step for generating a student image that does not add motion blur to the teacher image at a specific ratio, and a pixel of interest in the motion object in which motion blur occurs in the student image
  • a prediction tap extraction step for extracting at least the pixel value of the pixel in the student image substantially the same as the spatial position of the target pixel in the teacher image, and at least for each motion direction
  • a coefficient generation step for generating a processing coefficient for predicting the target pixel in the teacher image from the pixel value of the pixel extracted in the output step is executed.
  • a student image is generated by adding motion blur to the teacher image based on the set motion amount and motion direction.
  • the movement amount is set to “0” and the student image without motion blur is added, or at least one of the set movement amount and the movement direction is changed.
  • a student image with motion blur added to the teacher image and a student image with noise added are generated.
  • the pixels in the student image that are substantially the same as the spatial position of the pixel of interest in the teacher image are extracted. Pixel value of Is at least extracted.
  • the pixel values of the first plurality of pixels in the student image are extracted.
  • the pixel values of the second plurality of pixels in the student image are extracted.
  • a processing coefficient for predicting the target pixel in the teacher image is generated based on the pixel value of the extracted pixel.
  • student images that do not add motion blur to a teacher image at a specific rate are generated. For this reason, even if motion blur is removed from an image including a still image, the still image can be prevented from failing. Further, when generating a prediction coefficient corresponding to motion blur in the first motion direction, a student image having motion blur in the second motion direction close to the first motion direction is used. For this reason, even if a motion vector cannot be detected with high accuracy, motion blur removal can be performed satisfactorily. Furthermore, since the processing coefficient is generated by adding noise to the student image, the influence of noise can be reduced if learning is performed by adding noise generated by the image sensor. It is also possible to change the amount of noise to change the blur, or to adjust the proportion of student images with different amounts of blur to create a new blur.
  • the pixel values of the first plurality of pixels in the student image are extracted, and when in the progressive format, the pixel values of the second plurality of pixels in the student image are extracted. Therefore, motion blur can be removed from an image based on this image signal using any image signal of interface format or progressive format. Furthermore, the class of the target pixel is determined according to the pixel value activity of the pixel in the student image corresponding to the target pixel in the teacher image, and the processing coefficient is generated for each class. The motion blur removal process can be performed according to the condition.
  • FIG. 2 is a view for explaining an image taken by the image sensor.
  • 3A and 3B are diagrams for explaining the captured image.
  • FIG. 4 is a diagram illustrating a time direction dividing operation of pixel values.
  • Figure 5 A and Figure 5 B is a diagram for explaining the operation of calculating the pixel value of the target pixel Q
  • FIG. 6 shows the processing area
  • FIG. 7A and FIG. 7B are diagrams showing examples of setting processing areas.
  • Fig. 8 is a diagram for explaining temporal mixing of real world variables in the processing area.
  • Fig. 9 is a diagram showing the positions of main terms in the spatial direction.
  • FIG. 10 is a diagram showing the positions of main terms in the time direction.
  • Figures 11A and 11B are diagrams for explaining the relationship between the displacement of the motion vector and the displacement of the main term when the main term in the spatial direction is used.
  • Figure 12 is a diagram for explaining the relationship between the displacement of the motion vector and the displacement of the main term when the main term in the time direction is used.
  • FIG. 13 is a functional block diagram of the image processing apparatus.
  • FIG. 14 is a diagram showing a configuration of an image processing apparatus when software is used.
  • FIGS. 15 and 15 B are diagrams showing prediction taps.
  • FIG. 16 is a flowchart showing image processing.
  • Fig. 17 is a functional block diagram of the image processing apparatus (when class determination is performed).
  • Fig. 18A and Fig. 18B are diagrams showing class taps. '
  • FIG. 19 is a diagram for explaining the calculation of activity.
  • FIG. 20 is a flowchart showing image processing (when class determination is performed).
  • FIG. 21 is a diagram showing a configuration when motion blur removal processing is performed by obtaining processing coefficients by learning.
  • FIG. 22 is a functional block diagram of the learning device.
  • FIG. 23 is a flowchart showing the learning process.
  • Figure 24 shows the functional block diagram of the learning device (when class is determined).
  • Fig. 25 is a flowchart showing the learning process (when class is determined)
  • FIG. 1 is a block diagram showing a configuration of a system to which the present invention is applied.
  • the image 'sensor 10 generates an image signal D Va obtained by imaging the real society and supplies it to the image processing apparatus 20.
  • the image processing device 20 extracts information embedded in the supplied image signal D Va of the input image, and generates and outputs an image signal from which the embedded information is extracted. Note that the image processing apparatus 20 can also extract information buried in the image signal D Va by using various information ET supplied from the outside.
  • the image sensor 10 is composed of a video camera equipped with a CCD (Charge-Coupled Device) area sensor or a MOS area sensor, which is a solid-state image sensor, and images a real society. For example, as shown in FIG. 2, when the moving object OB f corresponding to the foreground moves in the direction of arrow A between the image sensor 10 and the object OBb corresponding to the background, the image sensor 10 is The object OB f corresponding to the foreground is imaged together with the object OBb corresponding to the background.
  • CCD Charge-Coupled Device
  • the detection element of the image sensor 10 converts the input light into electric charges for a period corresponding to the exposure time, and accumulates the photoelectrically converted electric charges.
  • the amount of charge is roughly proportional to the intensity of the input light and the time that the light is input.
  • the detection element adds the charge converted from the input light to the already accumulated charge. That is, the detection element integrates the input light for a period corresponding to the exposure time, and accumulates an amount of charge corresponding to the integrated light. It can be said that the detection element has an integral effect with respect to time. In this way, photoelectric conversion is performed by the image sensor, and the input light is converted into electric charges in units of pixels and accumulated in units of exposure time.
  • a pixel signal is generated according to the accumulated charge amount, and a desired frame is generated using the pixel signal.
  • the exposure time of the image sensor is a period in which the light input by the image sensor is converted into electric charge and the electric charge is accumulated in the detection element as described above.
  • the image time is It is equal to the interval (one frame period).
  • the shatter movement is performed, it is equal to the shatter opening time.
  • FIG. 3A and FIG. 3B are diagrams for explaining the captured image indicated by the image signal.
  • FIG. 3A shows an image obtained by imaging a moving object OB f corresponding to a moving foreground and an object OB b corresponding to a stationary background. It is assumed that the moving object OB f corresponding to the foreground has moved horizontally in the direction of arrow A.
  • Fig. 3B shows the relationship between the image and time at the position of line L (shown by a broken line) extending in the direction of arrow A as shown in Fig. 3A.
  • the length of the moving object OB f in the moving direction is, for example, 9 pixels and moves 5 pixels during one exposure period, the front edge and pixel position P that were at pixel position P 21 at the start of the frame period
  • the rear end corresponding to 13 ends the exposure period at pixel positions P 25 and P 17, respectively.
  • the exposure period in one frame is equal to one frame period, so that the front end is the pixel position P 26 and the rear end is the pixel position P 18 at the start of the next frame period. .
  • the background area includes only the background component.
  • Pixel positions P17 to P21 are foreground regions having only foreground components.
  • the pixel positions P13 to P16 and the pixel positions P22 to P25 are mixed regions in which the background component and the foreground component are mixed.
  • the mixed area is classified into a covered background area where the background component is covered with the foreground as time passes, and an uncovered background area where the background component appears as time elapses.
  • the mixed region located on the front end side of the foreground object OB f in the traveling direction is the covered background region
  • the mixed region located on the rear end side is the unencapsulated background region.
  • the image signal includes an image including a foreground area, a background area, or a covered background area or an uncovered background area.
  • the image time interval is short
  • the moving object OB f corresponding to the foreground is a rigid body and moves at a constant speed
  • the pixel value in line L is divided in the time direction.
  • Figure 4 In this time direction division operation, pixel values are expanded in the time direction and divided into equal time intervals by the number of virtual divisions.
  • the vertical direction corresponds to time, indicating that time passes from top to bottom in the figure.
  • the number of virtual divisions is set according to the amount of motion V in the image time interval of the motion object corresponding to the foreground. For example, when the motion amount V in one frame period is 5 pixels as described above, the number of virtual divisions is set to “5” corresponding to the motion amount V, and one frame period is set at equal time intervals. Divide into 5 parts.
  • the pixel value of one frame period of the pixel position Px obtained when the object OBb corresponding to the background is imaged is Bx
  • the motion object O Bf corresponding to the foreground whose length in the line L is 9 pixels is The pixel values obtained for each pixel when the image is taken still are F 09 (front end side) to F01 (rear end side).
  • the pixel value DP14 at the pixel position P14 is expressed by Expression (1).
  • the background component includes 3 virtual division times (frame period / V), Since the foreground component includes two virtual division times, the mixing ratio ⁇ of the background component to the pixel value is (3/5). Similarly, for example, at pixel position ⁇ 22, the background component includes one virtual division time and the foreground component includes four virtual division times, so the mixture ratio ⁇ is (1/5). As a result, different foreground components are added in one exposure time, so the foreground area corresponding to the motion object includes motion blur. For this reason, the image processing device 20 extracts significant information buried in the image signal DVa and generates an image signal DVout from which the motion blur of the motion object OBf corresponding to the foreground is removed.
  • the calculation operation of the pixel value of the target pixel on the image will be described with reference to FIG.
  • the pixel position P47 including the target pixel component F 29 / v is set as the target pixel to be processed.
  • the pixel value F29 of the pixel of interest is the pixel value DP44, 045 at the pixel positions P44, P45 and the pixel value? 24, or can be calculated using pixel values DP 49 and DP 50 and pixel value F34 at pixel positions P 49 and P 50.
  • the pixel value F29 can be calculated using the pixel values DP39, DP40, DP44, DP45 and the pixel value F19 at the pixel positions P39, P40, P44, and P45.
  • the pixel value F34 can be obtained in the same way.
  • the position of the pixel for which the difference is obtained repeatedly appears with an interval of motion amount V That is, the pixel value F29 of the target pixel can be calculated using the pixel values of the pixel positions' ⁇ , P39, P40, P44, P45, P49, P50, ⁇ used for the difference calculation as described above.
  • FIG. 6 A case where the pixel value of the target pixel is calculated from the model formula will be described.
  • a processing area of (2N + 1) pixels is set in the movement direction around the target pixel Pna.
  • Fig. 7 A and Fig. 7 B show examples of processing area settings.
  • the direction of the motion vector is horizontal as shown by the arrow A, for example, for the pixel of the motion object OBf that removes motion blur
  • the processing area WA in the horizontal direction as shown in Figure 7A.
  • the direction of the motion vector is diagonal.
  • the processing area WA is set in the corresponding angular direction.
  • the pixel value corresponding to the pixel position of the processing area is obtained by interpolation or the like.
  • the real world variables ( ⁇ . 8, ⁇ ⁇ ⁇ , ⁇ 0, ⁇ ⁇ ⁇ , ⁇ 8) is the mixing time.
  • N 6: N is the number of pixels of the processing width for the target pixel).
  • the pixel values of the pixels constituting the processing area are set to ⁇ - ⁇ , ⁇ - ⁇ + 1, ⁇ , ⁇ , ⁇ ⁇ ⁇
  • the pixel value Xt indicates the pixel value at the pixel position Pt.
  • the constant h shows the value of the integer part when the motion amount V is multiplied by 1Z2 (the value rounded down after the decimal point).
  • Equation (7) shows the case where the processing area is set as shown in FIG. 8, and is Equation (5).
  • T indicates that it is a transposed matrix.
  • AY X + ⁇
  • Equation (10) that minimizes the sum of squared errors can be obtained.
  • the processing coefficient used for each pixel has a shape as shown in FIG. 5B. That is, the absolute value of the processing coefficient for the pixel at the pixel position used for the difference calculation is larger than the coefficients for the other pixels.
  • the pixel at the pixel position used for the difference calculation is the main term.
  • the position of the main term in the spatial direction is based on the target pixel Pna as shown in Fig. 9.
  • the pixel position corresponds to the amount of movement in the movement direction.
  • the main term MCal indicates the main term closest to the target pixel in the direction of motion
  • the main term MCbl indicates the main term closest to the target direction in the direction of motion.
  • the position of the main term in the time direction overlaps the same pixel position on multiple images. Focusing on the above-mentioned main terms MCal and MCbl, (t 1 1) The position of the main term MCal on the frame image is (t) the position of the main term MCbl on the frame image. Therefore, the center position of the (t ⁇ l) frame and the (t) frame and substantially the same position as the main terms MCal and MCbl corresponds to the target pixel Pna. To be precise, main terms MCal pixel value X.3, X. 2 pixels, main terms MCbl corresponds to a pixel of the pixel values X 2, X 3, the spatial position of the pixel of interest Pna
  • a pixel value X 2 pixels of the pixel is the pixel and the pixel value X-2 is the pixel value X-3.
  • Fig. 11A only the main term in the spatial direction is used, and the pixel position in the middle between the main term MC al and the main term M Cbl existing in the spatial direction is removed by motion blur.
  • the output position of the subsequent pixel of interest Pna if the motion vector of the pixel of interest Pna is not detected accurately, the positions of the main terms MCal, MCbl, etc. will fluctuate significantly as shown by the broken line. The motion blur of the pixel Pna cannot be removed accurately.
  • the position of the main term M Cbl is The influence of the motion vector detection accuracy is small, but the position of the remaining main term M Cal etc. is greatly affected by the motion vector detection accuracy as shown by the broken line, so the motion vector of the target pixel Pna is If it is not detected accurately, the motion blur of the pixel of interest Pna cannot be removed accurately.
  • the pixel position in the middle of the main term M Cal and the main term MCbl is set as the output position of the target pixel Pna after motion blur removal, as in Fig. 11 A.
  • the position of the main term in the time direction will fluctuate, and it will not be possible to accurately remove motion blur. Therefore, as shown in Fig. 12, using the main term in the time direction, the output phase of the pixel of interest P na after the motion blur is removed in the middle between frames after the motion blur of the pixel of interest P na is removed. Are generated.
  • a functional block diagram of an image processing device that performs motion blur removal using the main term in the space-time direction as the output phase of the pixel of interest P na after motion blur removal is shown in the middle of the frame. 1 Shown in 3. It does not matter whether each function of the image processing device is realized by hardware or software. In other words, the functional block shown in Fig. 13 can be realized by hardware, or it can be realized by software.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • storage unit 208 includes an image processing device.
  • a program for realizing each function is stored.
  • a RAM Random Access Memory
  • the CPU 201, ROM 202, and RAM 203 are connected to each other by a bus 204.
  • an input / output interface 205 is connected to the CPU 201 via a bus 204.
  • the input / output interface 205 is connected to an input unit 206 composed of a keyboard, a mouse, a microphone, and the like, and an output unit 207 composed of a display, a speaker, and the like.
  • the CPU 201 executes various processes in response to commands input from the input unit 206. Then, the CPU 201 outputs an image, sound, or the like obtained as a result of the processing to the output unit 207.
  • the storage unit 208 connected to the input / output interface 205 is composed of, for example, a hard disk, and stores programs executed by the CPU 201 and various data.
  • a communication unit 209 communicates with an external device via the Internet or other networks.
  • the communication unit 209 functions as an acquisition unit that captures the output of the sensor.
  • the program may be acquired via the communication unit 209 and stored in the storage unit 208.
  • the drive 210 connected to the input / output interface 205 is a program recorded on a recording medium when a recording medium such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is loaded. Get data and data. The acquired program and data are transferred to and stored in the storage unit 208 as necessary.
  • the image signal DVa supplied to the image processing device 20 includes the direction detection processing unit 321 of the motion direction detection unit 32, the first image holding unit 331 and the second image of the peripheral image holding unit 33. It is supplied to the holding unit 332.
  • the target pixel setting unit 31 sets the target pixel Pna in the target image to be predicted.
  • the main term MCal on the image of the image and (t) the main term MCbl on the image of the frame (t 1) the phase between the frame and (t) frame, the main terms MCal, MCbl It is possible to obtain the pixel value after removing the motion blur of the target pixel which is a pixel at substantially the same pixel position as that of the pixel. Therefore, when the image signal DVa is a signal in progressive format, the pixel-of-interest setting unit 31 sets the predicted image to be predicted as an image in the middle of the (t-1) frame and the (t) frame.
  • the direction detection processing unit 32 1 detects a motion vector for each pixel based on the image signal DVa, and uses the motion direction information V da indicating the motion direction of the target pixel set by the target pixel setting unit 31 as the motion direction. This is supplied to the selection unit 322.
  • This direction detection processing unit 321 can detect a motion vector for each pixel by using a method such as a block matching method or a gradient method.
  • the motion direction selection unit 322 can input the motion direction information vdb indicating the motion direction as information ET from the outside, and the motion direction information Vda supplied from the direction detection processing unit 321 or the motion input from the outside One of the direction information V db is selected, and the selected motion direction information vd is supplied to the pixel value generation unit 38a.
  • the first image holding unit 33 1 and the second image holding unit 332 of the peripheral image holding unit 33 are configured using memory, and the first image holding unit 331 is a peripheral image (t 1 1) Hold the image.
  • the second image holding unit 332 holds a (t) frame image that is a peripheral image.
  • the pixel value extraction unit 36 extracts the main term mainly including the component of the target pixel. Therefore, the pixel value extraction unit 36 extracts the target pixel Pna from the peripheral images held in the first image holding unit 331 and the second image holding unit 332. At least a pixel at a position substantially the same as the spatial position is extracted and supplied to the pixel value generation unit 38a as a prediction tap Ca.
  • Figures 15A and 15B show the prediction tap C a.
  • the pixel value extraction unit 36 receives the target pixel P as shown in Fig. 15A from the (t-1) frame and (t) frame images, which are peripheral images.
  • 21 pixels are extracted as a prediction tap with reference to a pixel at the same position as the spatial position of na.
  • the class tap extraction unit 3 51 is a peripheral image with reference to the pixel at the same position as the spatial position of the target pixel P na as shown in FIG. t) Extract 21 pixels from the field image as a prediction tap, and predict 17 pixels from the surrounding image (t— 1) field image based on the same position as the spatial position of the target pixel P na Extract as a tap.
  • the processing coefficient setting unit 3 7 a stores in advance processing coefficients used for blur removal processing, and sets a plurality of sets of processing coefficients da corresponding to the motion direction selected by the motion direction selection unit to the pixel value generation unit 3 8 a To supply. Further, when the adjustment information BS that enables adjustment of motion blur is supplied as information ET from the outside, the processing coefficient setting unit 3 7 a supplies the pixel value generation unit 3 8 a based on the adjustment information BS.
  • the motion blur removal effect is adjusted by switching the processing coefficient da to be supplied. For example, even if the motion blur is not optimally performed with the processing coefficient supplied first, the motion blur can be optimally removed by switching the processing coefficient. It is also possible to leave motion blur intentionally by switching the processing coefficient.
  • the pixel value generation unit 3 8 a Based on the motion direction information vd selected by the motion direction selection unit 3 2 2, the pixel value generation unit 3 8 a obtains the pixel value of the pixel extracted from the first image holding unit 3 3 1 of the pixel value extraction unit 3 6. The pixel value in the direction of motion corresponding to the processing coefficient da supplied from the processing coefficient setting unit 37a is calculated. Further, a product-sum operation is performed on the calculated pixel value and the processing coefficient da supplied from the processing coefficient setting unit 37a to generate a pixel value. Also, using the pixel value of the pixel extracted from the second image holding unit 3 32, the pixel value in the motion direction corresponding to the processing coefficient da supplied from the processing coefficient setting unit 37 a is calculated.
  • a product-sum operation is performed on the calculated pixel value and the processing coefficient da supplied from the processing coefficient setting unit 37a to generate a pixel value.
  • the pixel value of the target pixel is generated and output as the image signal DVout.
  • FIG. 16 shows a flowchart when image processing is performed by software.
  • the CPU 20 1 sets a target pixel from which motion blur is to be removed, and proceeds to step ST 2.
  • the CPU 201 detects the moving direction of the pixel of interest and proceeds to step ST3.
  • the CPU 201 extracts pixel values and extracts pixel values of prediction taps set in the surrounding images.
  • CCU201 extracts the main term that mainly contains the component of the target pixel in the motion object, at least a pixel in the surrounding image whose spatial position is substantially the same as the target pixel is used as the prediction tap. Extract pixel values.
  • step ST4 the CPU 201 sets a processing coefficient corresponding to the motion direction detected in step ST2, and proceeds to step ST5.
  • step ST5 the CPU 201 performs blur removal processing on each frame. That is, the CPU 201 performs a calculation process on the pixel value of the prediction tap extracted in step ST3 and the processing coefficient set in step ST4, calculates the pixel value from which blurring has been removed, and proceeds to step ST6. move on.
  • step ST6 the CPU 201 determines whether or not the deblurring process has been completed for the entire screen. If there is a pixel for which the deblurring process has not been performed, the process returns to step ST1 to remove the deblurring for the entire screen. When is completed, the process ends.
  • the processing coefficient is set based on the motion direction selected by the motion direction selection unit 322, but the class determination is performed using not only the motion direction but also the signal level of the image. If the processing coefficient is selected according to the determined class and supplied to the pixel value generation unit, the motion blur removal process can be performed with higher accuracy.
  • FIG. 17 shows a functional block diagram of an image processing apparatus that performs class determination. Note that portions corresponding to those in FIG. 13 are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the class tap extraction unit 351 of the class determination unit 35 classifies the surrounding image held in the first image holding unit 33 1 and the second image holding unit 332 with reference to the spatial position corresponding to the target pixel. The tap is extracted, and the extracted class tap TPa is supplied to the class classification unit 352.
  • Figures 18A and 18B show class taps.
  • the class tap extraction unit 351 determines the target pixel as shown in Fig. 18A from the (t 1 1) frame and (t) frame images that are peripheral images. For example, the pixel of interest with reference to the spatial position corresponding to Pna
  • the class tap extraction unit 351 uses, for example, a peripheral image (t) field image based on the spatial position corresponding to the target pixel Pna as shown in FIG. 9 pixels are extracted as a class tap including the pixel at the spatial position corresponding to the target pixel Pna and the pixels adjacent to this pixel.
  • 12 pixels are extracted as class taps from the image in the (t-1) field, which is a peripheral image, including a pixel that overlaps with the spatial position corresponding to the target pixel Pna and a pixel adjacent to this pixel.
  • the class classification unit 352 performs class classification based on the motion direction information vd supplied from the motion direction detection unit 32 and the class tap TPa extracted by the class tap extraction unit 351, determines a class code KA, and processes coefficients. Supply to setting unit 37b.
  • class classification is performed using the class tap TPa extracted by the class tap extraction unit 351, class classification is performed based on the activity calculated from the class tap TPa.
  • Activity is the sum of the difference values between adjacent pixels and indicates spatial correlation.
  • the difference between adjacent pixels of 9 pixels in total of 3 pixels ⁇ 3 pixels is an activity.
  • the class tap is selected as in the (t_l) field in FIG. 18B
  • the difference between the adjacent pixels of 12 pixels in total of 4 pixels ⁇ 3 pixels is the activity.
  • the activity AC is based on Equation (1 3). Can be calculated.
  • the spatial correlation is high, the value of activity AC is small, and when the spatial correlation is low, the value of activity AC is large.
  • Activity class AL ACtZ (ACt-l + ACt) X 100
  • class code KA is determined based on movement direction information vd and activity class AL.
  • the pixel value extraction unit 36 extracts at least a pixel at a position substantially the same as the spatial position of the target pixel Pna from the peripheral images held in the first image holding unit 331 and the second image holding unit 332. Then, it supplies the pixel value generator 38b as the prediction tap Ca.
  • the processing coefficient setting unit 37 b stores in advance processing coefficients used for blur removal processing for each class code, and selects a processing coefficient db corresponding to the class code KA supplied from the class classification unit 352 to generate a pixel value. Supply to part 38b.
  • the processing coefficient setting unit 37b performs motion by switching the processing coefficient to be selected based on the adjustment information BS. Adjust the blur removal effect. For example, if the processing coefficient db corresponding to the class code KA is used, motion blur can be optimally removed by switching the processing coefficient even if the motion blur does not occur optimally. . Also, It is possible to leave motion blur intentionally by switching the processing coefficient.
  • the pixel value generation unit 38b performs a calculation process on the prediction tap Ca supplied from the pixel value extraction unit 36 and the processing coefficient db supplied from the processing coefficient setting unit 37b, and the pixel value of the target pixel in the target image Is generated.
  • the pixel value is generated by performing a product-sum operation on the prediction tap extracted from the surrounding image held in the first image holding unit 331 and the processing coefficient.
  • the pixel value is generated by performing a product-sum operation on the prediction tap extracted from the peripheral image held in the second image holding unit 332 and the processing coefficient. By combining these two pixel values, the pixel value of the target pixel is generated and output as the image signal DVout.
  • FIG. 20 shows a flowchart when image processing is performed by software.
  • the CPU 201 sets a target pixel from which motion blur is to be removed, and proceeds to step ST 12.
  • the CPU 201 detects the moving direction of the target pixel and proceeds to step ST13.
  • the CPU 201 determines the class of the target pixel. In this class determination, the class code is determined by classifying based on the pixel direction of the cluster set in the peripheral image based on the movement direction of the target pixel and the spatial position of the target pixel.
  • the CPU 201 extracts pixel values and extracts pixel values of prediction taps set in the surrounding images.
  • the CPU 201 extracts a main term mainly including the component of the target pixel in the moving object, at least a pixel in the surrounding image whose spatial position is substantially the same as the target pixel is used as a prediction tap. Extract pixel values.
  • step ST 15 the CPU 201 sets a processing coefficient corresponding to the motion direction detected in step ST 1 2 and the class determined in step ST 13, and proceeds to step ST 16.
  • step ST16 the CPU 201 performs blur removal processing on each frame. That is, the CPU 201 determines the pixel value of the prediction tap extracted in step ST14. And the processing coefficient determined in step ST 15 are calculated, the pixel value from which the blur is removed is calculated, and the process proceeds to step ST 17.
  • step ST 17 the CPU 2 0 1 determines whether or not the deblurring process has been completed for the entire screen. If there is a pixel for which the deblurring process has not been performed, the process returns to step ST 1 1 When the blur removal is completed for the screen, the process is terminated.
  • Fig. 21 shows the configuration in the case where the processing coefficient is obtained by learning and the blur removal process is performed.
  • the learning device 60 performs learning processing using the teacher image and the student image obtained by adding motion blur to the teacher image, and stores the processing coefficient obtained by the learning in the processing coefficient setting unit of the image processing device 20.
  • the image processing apparatus 20 selects a prediction tap from an image including motion blur that becomes an input image so as to include at least a pixel at a position substantially the same as the spatial position of the pixel of interest, and the pixel value of the prediction tap and the processing coefficient Using the processing coefficient stored in the setting unit, the pixel value of the target pixel that has been subjected to arithmetic processing and subjected to blur removal is obtained.
  • the teacher image an image captured using a high-speed imaging camera or a still image is used.
  • the student image is generated by integrating the image taken with the high-speed imaging camera as a still image and time integration.
  • the direction and amount of movement are set, and the student image is defined by adding motion blur and noise according to the set direction and amount of motion to the still image.
  • the motion setting unit 61 sets a motion direction and a motion amount, and supplies motion information MH indicating the set motion direction and motion amount to the student image generation unit 62.
  • a plurality of movement directions are set with a predetermined angle difference.
  • a plurality of different motion amounts may be set for each motion direction.
  • the motion blur adding unit 6 2 1 of the student image generating unit 6 2 adds motion blur to the teacher image according to the motion direction and the amount of motion indicated by the motion information MH, and moves the entire lf plane moving unit 6 2 2 To supply.
  • the full-screen moving unit 6 2 2 generates a student image by moving the teacher image to which the motion blur has been added in the movement direction by the amount of movement based on the movement information MH.
  • the student image generation unit 62 generates a student image that does not add motion blur to the teacher image at a specific ratio.
  • the processing coefficient is generated by switching the generation ratio of the student image with no motion blur and the generation ratio of the student image having the motion blur in the second motion direction.
  • a plurality of student images in the movement direction indicated by the movement information MH are close to the first movement direction indicated by the movement information MH! / It is assumed that student images generated by performing surface movement are included at a specific rate.
  • a motion blur or a motion amount corresponding to a motion direction or motion amount different from the motion direction or motion amount indicated by the motion information MH is added to the plurality of student images having the motion direction or motion amount indicated by the motion information MH, or the entire screen. It is assumed that student images generated by moving are included at a specific rate.
  • the processing coefficient is generated by switching the ratio including the motion direction and the motion amount different from the motion direction and the motion amount indicated by the motion information MH, and the user can select a desired processing coefficient. In this way, it is possible to select the processing coefficient generated by switching the ratio including the direction and amount of movement. For example, it is possible to perform motion blur removal processing according to the user's preference.
  • the motion blur of the still image portion is removed by selecting a processing coefficient generated by increasing the proportion of student images with a motion amount of “0”. Can be performed with higher accuracy.
  • Motion blur can be removed with high accuracy.
  • the student image generation unit 62 when a student image is generated by the student image generation unit 62, the student image is generated so that the middle phase of the two student images becomes a teacher image.
  • the teacher image to which motion blur is added is moved by 1 to 2 of the amount of motion in the opposite direction to the motion direction indicated by the motion information MH, and (t 1 1) is the first image corresponding to the frame image.
  • the teacher image to which the motion blur is added is moved by a motion amount of 12 in the motion direction indicated by the motion information MH, and a second student image corresponding to, for example, a (t) frame image is generated.
  • the teacher image corresponds to the attention image
  • the student image corresponds to the peripheral image.
  • the first student image generated by the full screen moving unit 6 2 2 is stored in the first image holding unit 6 2 3.
  • the second student image generated by the full screen moving unit 6 2 2 is stored in the second image holding unit 6 24.
  • the noise component adding unit 6 2 5, 6 2 6 allows the image signal D Va to perform motion blur removal processing without being affected by the noise even if noise is superimposed on the image signal D Va.
  • the noise NZ superimposed on is pre-superimposed on the first and second student images to learn the processing coefficients. In this way, by providing learning with the noise component addition units 6 2 5 and 6 26, the influence of noise is greater than when learning without the noise component addition units 6 2 5 and 6 26. Less motion blur removal processing can be performed with high accuracy. In addition, the blur can be changed by adjusting the amount of noise.
  • a reference image is generated by photographing a subject with uniform brightness with a digital camera or a video camera and adding the subject image. Noise obtained by subtracting this reference image from each captured image is used. If you use this kind of noise, It is possible to more effectively remove motion blur corresponding to an image.
  • the prediction tap extraction unit 64 extracts the prediction tap Ca from the first and second student images generated by the student image generation unit 62 in the same manner as the pixel value extraction unit 36 described above.
  • the pixel value is supplied to the normal equation generation unit 651.
  • the normal equation generation unit 651 of the processing coefficient generation unit 65 generates a normal equation for each motion direction from the pixel value of the prediction tap Ca extracted by the prediction tap extraction unit 64 and the pixel value of the teacher image, and a coefficient determination unit 652 To supply.
  • the coefficient determination unit 652 calculates a processing coefficient to the student image ⁇ based on the normal equation supplied from the normal equation generation unit 651, and obtains the processing coefficient for each student image for each motion direction. Store in a.
  • the normal equation generation unit 651 and the coefficient determination unit 652 will be further described.
  • the above-described pixel value generation unit 38a uses the pixel value of the prediction tap extracted by the pixel value extraction unit 36 and the processing coefficient supplied from the processing coefficient setting unit 37a, for example, using Equation (1)
  • the linear combination shown in 5) is performed, and pixel values after blur removal processing are generated for each peripheral image.
  • Equation (15) q ′ represents the pixel value of the pixel from which blur removal has been performed.
  • C i (i represents each pixel in the processing range with an integer value of 1 to n) represents the pixel value of the processing area.
  • Di represents a processing coefficient.
  • each processing coefficient di is an undetermined coefficient before learning.
  • Processing coefficient learning is performed by inputting pixels of multiple teacher images (still images).
  • q k (k is an integer value of 1 to m) When there are m pixels of the teacher image and the pixel data of the m pixels is described as “q k (k is an integer value of 1 to m)”, from the equation (15), the following equation (16 ) Is set.
  • Expression (16) can obtain the pixel value q k ′ after blur removal substantially equal to the actual pixel value q k without motion blur by performing the calculation on the right side.
  • the pixel value after blur removal which is the calculation result on the right side, is motion blur. This is because it does not exactly match the pixel value of the pixel of interest in an actual image with no error and includes a predetermined error.
  • the processing coefficient di uses the pixel value q k after blur removal to a pixel value without motion blur. It is considered to be the optimum coefficient for approaching. Therefore, for example, the optimal processing coefficient di is determined by the method of least squares using m pixel values q k collected by learning (where m is an integer greater than n).
  • Equation (17) The straight equation when the processing coefficient di on the right side of Equation (16) is obtained by the method of least squares can be expressed as Equation (17).
  • the processing coefficient di can be determined by solving the normal equation shown in Equation (1 7). Specifically, each of the matrices of the normal equation shown in Equation (1 7) is expressed by the following equations (8) to (8) If defined as 20), the normal equation is expressed as the following equation (2 1). di
  • each component of the matrix DMAT is the processing coefficient di to be obtained. Therefore, if the left-side matrix CMAT and the right-side matrix QMAT are determined in Equation (2 1), the matrix DMAT (that is, the processing coefficient) can be calculated by matrix solution. Specifically, as shown in Equation (18), each component of the matrix CMAT can be calculated if the prediction tap c ik is known. Prediction tap c ik Since the extraction unit 6 4 extracts, the normal equation generation unit 6 5 1 calculates each component of the matrix C MAT by using each of ik for the prediction tap supplied from the prediction tap extraction unit 6 4. Can do.
  • each component of the matrix QMAT can be calculated if the prediction tap c ik and the still image pixel value q k are known.
  • Prediction taps c ik is the same as the ones contained in each component of the matrix C MAT,
  • the coefficient determination unit 6 52 calculates the processing coefficient d i which is each component of the matrix DMAT of the above equation (19). Specifically, the normal equation of the above equation (2 1) can be transformed as the following equation (2 2).
  • Equation (2 2) each component of the matrix DMAT on the left side is the processing coefficient d i to be obtained.
  • Each component of matrix C MAT and matrix QMAT is supplied from the normal equation generator 6 5 1. Therefore, when each component of the matrix C MAT and the matrix QMAT is supplied from the normal equation generator 6 5 1, the coefficient determination unit 6 5 2 performs the matrix operation on the right side of Equation (2 2) Thus, the matrix DMAT is calculated, and the calculation result (processing coefficient di) is stored in the processing coefficient setting unit 37a. If the above learning is performed by switching the motion direction set by the motion setting unit 61, based on the relationship between the pixel value of the prediction tap and the target pixel in the teacher image, a plurality of sets of prediction taps. The processing coefficient for predicting the target pixel in the teacher image from the pixel value can be stored in the processing coefficient setting unit at least for each motion direction.
  • FIG. 23 is a flowchart showing the learning process executed by the learning device. Step ST 2 1 sets the motion amount and direction of the processing coefficient to be generated.
  • step S T 2 motion blur is added, and motion blur is added to the teacher image according to the motion amount set in step S T 21.
  • step ST 2 3 the entire screen is moved, and the teacher image with motion blur added in step ST 2 2 is moved across the screen based on the motion amount and direction set in step ST 2 1, and the peripheral image A student image corresponding to is generated.
  • this student image generation at least one of the set movement amount and movement direction is changed at a specific rate, and after the change, movement blur and full screen are added to the teacher image based on the movement amount and movement direction. Move and generate student images. In addition, student images are generated at a specific rate with the movement amount set to “0”.
  • step S T 24 noise addition processing is performed and noise is added to the student image.
  • step ST 25 a prediction tap is extracted from the student image to which noise has been added.
  • step ST 26 a normal equation is generated at least for each motion direction using the teacher image and the extracted prediction tap.
  • step S T 27 a normal coefficient is solved to generate a processing coefficient.
  • step ST 28 it is determined whether or not processing has been performed on the entire screen. If processing has not been performed on the entire screen, the processing from step ST 21 is repeated for new pixels. When all pixels have been processed, the learning process ends.
  • the amount of motion is set to “0” and including student images with no motion blur in the learning source, it is possible to improve the mouth bust against the failure of still images, and the detected motion Even if the vector has an error, it is possible to prevent the failure of the still image when motion blur is removed.
  • the processing coefficient By adjusting the amount of noise to be added, the blur can be changed, or the proportion of student images with different blur can be adjusted to create a new blur.
  • FIG. 24 A functional block diagram of 60 is shown in FIG. In FIG. 24, parts corresponding to those in FIG. 22 are given the same reference numerals, and detailed descriptions thereof are omitted.
  • the class determination unit 63 determines the class code KB for the pixel of interest in the same manner as the class determination unit 35 described above, and supplies it to the normal equation generation unit 65 1 of the processing coefficient generation unit 65.
  • the prediction tap extraction unit 6 4 extracts the prediction tap Ca from the first 'and second student images generated by the student image generation unit 62 in the same manner as the pixel value extraction unit 36 described above. Supply the pixel value of the prediction tap to the normal equation generator 6 5 1 d
  • the normal equation generation unit 6 5 1 of the processing coefficient generation unit 65 generates a normal equation for each class code from the pixel value of the prediction tap Ca extracted by the prediction tap extraction unit 64 and the pixel value of the teacher image.
  • the coefficient determination unit 6 5 2 is supplied.
  • the coefficient determination unit 65 2 calculates the processing coefficient based on the normal equation supplied from the normal equation generation unit 65 1, and stores the obtained plurality of sets of processing coefficients in the processing coefficient setting unit 3 7 b. Also, by generating the processing coefficients by switching the movement direction, the processing coefficient setting unit 37 b stores a plurality of sets of processing coefficients according to the movement direction and the class. If the processing coefficient is generated by switching the amount of motion, a processing coefficient with higher accuracy can be obtained.
  • processing coefficients are classified according to the noise added by the student image generation unit and stored in the processing coefficient setting unit 37 b. If the processing coefficients are classified according to noise in this way, the processing coefficients to be selected can be switched by changing the class based on the adjustment information B S as described above.
  • Fig. 25 is a flowchart showing the learning process (when class determination is performed) performed by the learning device.
  • step ST 31 the amount and direction of movement of the processing coefficient to be generated are set.
  • step ST 3 2 motion blur is added, and motion blur is added to the teacher image according to the amount of motion set in step ST 3 1.
  • step ST 3 3 the entire screen is moved, and the teacher image with motion blur added in step ST 3 2 is moved on the whole screen based on the motion amount and direction set in step ST 3 1, and the peripheral image is moved.
  • step ST 3 3 corresponds to Generate student images.
  • at least one of the set movement amount and movement direction is changed at a specific rate, and motion blur is added to the teacher image and all the movement directions are changed based on the changed movement amount and movement direction.
  • student images are generated at a specific rate with the movement amount set to “0”.
  • step ST 3 noise addition processing is performed to add noise to the student image.
  • step ST35 class determination processing is performed, and a class code is determined for each pixel using a student image to which noise is added.
  • step ST 36 a prediction tap is extracted from the student image to which noise is added.
  • step ST 37 a normal equation is generated for each class using the teacher image and the extracted prediction tap.
  • processing coefficients are generated by solving normal equations.
  • step ST 39 it is determined whether or not processing has been performed on the entire screen. If processing has not been performed on the entire screen, the processing from step ST 3 1 is repeated for new pixels. When all pixels have been processed, the learning process ends.
  • the image processing device, the learning device, and the method according to the present invention are useful when extracting information buried in an image signal obtained by imaging the real society using an image sensor. It is suitable for obtaining an image from which motion blur is removed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Picture Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

 動き設定部(61)は、処理係数を求める動き量と動き方向を設定する。生徒画像生成部(62)は、設定された動き量や動き方向だけでなく、特定の割合で動き量および動き方向の少なくとも一方を変更して教師画像に動きボケを付加した生徒画像や動きボケを付加していない生徒画像を生成する。予測タップ抽出部(64)は、注目画素の成分が主に含まれる主要項を抽出するため、教師画像内の注目画素の空間位置と略同じ生徒画像内の画素値を少なくとも抽出する。処理係数生成部(65)は、抽出した画素と教師画像内の注目画素との関係から、抽出した画素の画素値に基づき教師画像内の注目画素を予測する処理係数を生成する。動きベクトルのずれに対してロバストな動きボケ除去処理を行うことができる処理係数を学習によって生成できる。

Description

明細書
学習装置と学習方法および学習プログラム 技術分野
この発明は、 学習装置と学習方法および学習プログラムに関する。 詳しくは、 設定された動き量と動き方向とに基づき、 教師画像に動きボケを付加することで 生徒画像を生成して、 教師画像内の注目画素に対応する生徒画像内の画素の画素 値に基づき、 注目画素のクラスを決定する。 また、 生徒画像内の動'きボケが生じ ている動きォブジェク トにおける注目画素の成分が主に含まれる主要項を抽出す るため、 教師画像内の注目画素の空間位置と略同じ生徒画像内の画素の画素値を 少なくとも抽出する。 この抽出した画素値と教師画像内の注目画素との関係から 、 抽出した画素値に基づいて教師画像内の注目画素を予測する処理係数の生成を 検出されたクラス毎に行う。 この生徒画像の生成では、 特定の割合で、 動き量お よび動き方向のうち少なくとも何れか一方を変更して生徒画像の生成を行うもの である。 背景技術
従来より、 現実世界における事象を、 センサを用いてデータ化することが行わ れている。 このセンサを用いて取得されたデータは、 現実世界の情報 (例えば、 光) 力 現実世界より低い次元の時空間に射影して得られた情報である。 このた め、 射影して得られた情報は、 射影により発生する歪みを有している。 例えば、 静止している背景の前で移動する物体をビデオカメラで撮像して画像信号として データ化する場合、 現実世界の情報をサンプリングしてデータ化することから、 画像信号に基づいて表示される画像では、 射影により発生する歪みとして、 動い ている物体がボケてしまう動きボケが生じる。
このため、 特開 2 0 0 1— 2 5 0 1 1 9号公報 (対応米国出願番号: 0 9 / 8 3 0 8 5 8、 対応欧州特許公開番号: E P 1 1 6 4 5 4 5 ) で開示されているよ うに、 例えば、 入力画像に含まれる前景のオブジェク トに対応する画像オブジェ ク トの輪郭を検出することで、 前景のオブジェク トに対応する画像オブジェク ト を粗く抽出し、 この粗く抽出された前景のオブジェク トに対応する画像オブジェ ク 卜の動きべク トルを検出して、 検出した動きべク トルおよび動きべク トルの位 置情報を用いて動きボケの軽減が行われている。 発明の開示
ところで、 このような従来の動きボケ除去においては、 入力信号中の動きボケ を生じている部分のボケ量に応じた空間的な処理を行うことによってボケ除去を 行っていた。 しかし、 動画像においても同じような空間的に完結した処理を行う ので、 動きボケ除去処理の精度は、 動きベク トル推定の精度に非常に強く影響さ れる。 すなわち、 推定された動きべク トルがずれを生じると、 使用する処理領域 や処理係数が変化してしまい、 動きボケ除去処理後の画像が破綻を生じてしまう おそれがある。 また、 時間情報を用いようとしても推定された動きベク トルのず れが更に助長されるので、 時間方向の情報を有意義に用いて処理に活用すること ができない。
更に、 動きオブジェク トと静止しているオブジェク トが含まれている画像に対 して動きボケ除去を行っても、 静止しているオブジェク 卜の画像は破綻しないよ うに処理できなければ、 動きボケを除去した良好な撮像画像を得ることができな くなつてしまう。
この発明に係る学習装置は、 動き量を設定する動き量設定部と、 動き方向を設 定する動き方向設定部と、 動き量と動き方向とに基づき、 教師画像に動きボケを 付加して生徒画像を生成する生徒画像生成部と、 生徒画像内の動きボケが生じて いる動きオブジェク トにおける注目画素の成分が主に含まれる主要項を抽出する ため、 教師画像内の注目画素の空間位置と略同じ生徒画像内の画素の画素値を少 なくとも抽出する予測タップ抽出部と、 少なくとも動き方向毎に、 複数組の、 予 測タップ抽出部により抽出された画素の画素値と、 教師画像内の注目画素との関 係から、 予測タップ抽出部により抽出された画素の画素値から教師画像内の注目 画素を予測する処理係数を生成する係数生成部とを備え、 生徒画像生成部は、 特 定の割合で、 教師画像に動きボケを付加しなレ、生徒画像を生成するものである。 この発明に係る学習方法は、 動き量を設定する動き量設定工程と、 動き方向を 設定する動き方向設定工程と、 動き量と動き方向とに基づき、 教師画像に動きボ ケを付加して生徒画像を生成する生徒画像生成工程と、 生徒画像内の動きボケが 生じている動きオブジェク トにおける注目画素の成分が主に含まれる主要項を抽 出するため、 教師画像内の注目画素の空間位置と略同じ生徒画像內の画素の画素 値を少なくとも抽出する予測タップ抽出工程と、 少なくとも動き方向毎に、 複数 組の、 予測タップ抽出部により抽出された画素の画素値と、 教師画像内の注目画 素との関係から、 予測タップ抽出工程により抽出された画素の画素値から教師画 像内の注目画素を予測する処理係数を生成する係数生成工程とを有し、 生徒画像 生成工程では、 特定の割合で、 教師画像に動きボケを付加しない生徒画像を生成 するものである。
また、 この発明に係る学習プログラムは、 コンピュータに、 動き量を設定する 動き量設定ステップと、 動き方向を設定する動き方向設定ステップと、 動き量と 動き方向とに基づき、 教師画像に動きボケを付加して生徒画像を生成すると共に 、 特定の割合で、 教師画像に動きボケを付加しない生徒画像を生成する生徒画像 生成ステップと、 生徒画像内の動きボケが生じている動きオブジェク トにおける 注目画素の成分が主に含まれる主要項を抽出するため、 教師画像内の注目画素の 空間位置と略同じ生徒画像内の画素の画素値を少なくとも抽出する予測タップ抽 出ステップと、 少なくとも動き方向毎に、 複数組の、 予測タップ抽出ステップに より抽出された画素の画素値と、 教師画像内の注目画素との関係から、 予測タツ プ抽出ステップにより抽出された画素の画素値から教師画像内の注目画素を予測 する処理係数を生成する係数生成ステップとを実行させるものである。
この発明においては、 設定された動き量や動き方向とに基づいて、 教師画像に 対し動きボケが付加されて生徒画像が生成される。 この生徒画像の生成では、 特 定の割合で、 動き量を 「0」 として動きボケを付加していない生徒画像の生成や 、 設定された動き量および動き方向のうち少なくとも何れか一方を変更して変更 後の動き量や動き方向に基づき教師画像に動きボケを付カ卩した生徒画像の生成、 ノイズを付加した生徒画像の生成が行われる。 また、 生徒画像内の動きボケが生 じている動きオブジェク トにおける注目画素の成分が主に含まれる主要項を抽出 するため、 教師画像内の注目画素の空間位置と略同じ生徒画像内の画素の画素値 が少なくとも抽出される。 画素値の抽出では、 例えば生徒画像がインタレースフ ォ一マットのとき、 生徒画像内の第 1の複数の画素の画素値が抽出される。 また 、 生徒画像がプログレッシブフォーマットのとき、 生徒画像内の第 2の複数の画 素の画素値が抽出される。 この抽出された画素の画素値と教師画像内の注目画素 との関係から、 抽出された画素の画素値に基づき教師画像内の注目画素を予測す る処理係数が生成される。 発明の効果
この発明によれば、 特定の割合で教師画像に動きボケを付加しない生徒画像が 生成される。 このため、 静止画像を含む画像に対して動きボケの除去を行っても 、 静止画像が破綻してしまうことを防止できる。 また、 第 1の動き方向の動きボ ケに対応する予測係数を生成する際、 第 1の動き方向に近い第 2の動き方向の動 きボケを有する生徒画像が用いられる。 このため、 動きべク トルを精度良く検出 できない場合が生じても、 動きボケ除去を良好に行うことができる。 更に、 生徒 画像にノイズを付加して処理係数が生成されるので、 画像センサで生じるノイズ を付加して学習を行うものとすれば、 ノイズの影響を軽減できる。 また、 ノイズ 量を調整することでボケ感を変化させたり、 ボケ量の違う生徒画像の割合を調整 して、 新たなボケ感を作り出すことも可能となる。
また、 生徒画像がインタレースフォーマットのとき、 生徒画像内の第 1の複数 の画素の画素値が抽出され、 プログレッシブフォーマットのとき、 生徒画像内の 第 2の複数の画素の画素値が抽出されるので、 インタフェースフォーマツトある いはプログレッシブフォーマツ卜の何れの画像信号を用いても、 この画像信号に 基づく画像から動きボケを除去することができる。 更に、 教師画像内の注目画素 に対応する生徒画像内の画素の画素値のァクティビティに応じて、 注目画素のク ラスが決定されて、 クラス毎に処理係数の生成が行われるので、 撮像画像に応じ た動きボケ除去処理を行うことができる。 図面の簡単な説明
図 1は、 システムの構成を示す図である 図 2は、 画像センサによる撮'像を説明するための図である。
図 3 Aと図 3 Bは、 撮像画像を説明するための図である。
図 4は、 画素値の時間方向分割動作を示す図である。
図 5 Aと図 5 Bは、 注目画素の画素値の算出動作を説明するための図である Q
図 6は、 処理領域を示す図である。
図 7 Aと図 7 Bは、 処理領域の設定例を示す図である。
図 8は、 処理領域における実世界変数の時間混合を説明するだめの図である 図 9は、 空間方向の主要項の位置を示す図である。
図 1 0は、 時間方向の主要項の位置を示す図である。
図 1 1 Aと図 1 1 Bは、 空間方向の主要項を用いる場合の動きべク トルのず れと主要項の位置ずれの関係を説明するための図である。
図 1 2は、 時間方向の主要項を用いる場合の動きべク トルのずれと主要項の 位置ずれの関係を説明するための図である。
図 1 3は、 画像処理装置の機能ブロック図である。
図 1 4は、 ソフトウエアを用いるときの画像処理装置の構成を示す図である 図 1 5 と図1 5 Bは、 予測タップを示す図である。
図 1 6は、 画像処理を示すフローチャートである。
図 1 7は、 画像処理装置の機能ブロック図 (クラス決定を行う場合) である 図 1 8 Aと図 1 8 Bは、 クラスタップを示す図である。 '
図 1 9は、 ァクティビティの算出を説明するための図である。
図 2 0は、 画像処理 (クラス決定を行う場合) を示すフローチャートである 図 2 1は、 処理係数を学習によって求めて動きボケ除去処理を行う場合の構 成を示す図である。
図 2 2は、 学習装置の機能ブロック図である。 図 2 3は、 学習処理を示すフローチャートである。
図 2 4は、 学習装置の機能プロック図 (クラス決定を行う場合) である。 図 2 5は、 学習処理 (クラス決定を行う場合) を示すフローチャートである
発明を実施するための最良の形態
以下、 図を参照しながら、 この発明の実施の一形態について説明する。 図 1ほ 、 本発明を適用するシステムの構成を示すブロック図である。 画像'センサ 1 0は 現実社会を撮像した画像信号 D Vaを生成して画像処理装置 2 0に供給する。 画 像処理装置 2 0は、 供給された入力画像の画像信号 D Vaに埋もれてしまった情 報の抽出を行い、 埋もれてしまった情報を抽出した画像信号を生成して出力する 。 なお、 画像処理装置 2 0は、 外部から供給された種々の情報 E Tを用いて、 画 像信号 D Vaに埋もれてしまった情報の抽出を行うこともできるようになされて いる。
画像センサ 1 0は、 固体撮像素子である C C D (Charge-Coupled Device) エリアセンサや MO Sエリアセンサを備えたビデオカメラなどで構成されており 、 現実社会を撮像する。 例えば、 図 2に示すように、 画像センサ 1 0と背景に対 応するオブジェクト O Bbとの間を、 前景に対応する動きオブジェクト O B fが矢 印 A方向に移動するとき、 画像センサ 1 0は、 前景に対応する動きォブジェクト O B fを背景に対応するオブジェクト O Bbと共に撮像する。
この画像センサ 1 0の検出素子は、 露光時間に対応する期間、 入力された光を 電荷に変換して、 光電変換された電荷を蓄積する。 電荷の量は、 入力された光の 強さと、 光が入力されている時間にほぼ比例する。 検出素子は、 露光時間に対応 する期間において、 入力された光から変換された電荷を、 既に蓄積されている電 荷に加えていく。 すなわち、 検出素子は、 露光時間に対応する期間、 入力される 光を積分して、 積分された光に対応する量の電荷を蓄積する。 検出素子は、 時間 に対して、 積分効果があるとも言える。 このように、 画像センサで光電変換を行 レ、、 入力された光を画素単位で電荷に変換して露光時間単位で蓄積する。 この蓄 積された電荷量に応じて画素信号を生成して、 この画素信号を用いて所望のフレ ームレートの画像信号を生成して画像処理装置に供給する。 なお、 画像センサの 露光時間は、 上述のように画像センサが入力された光を電荷に変換して検出素子 にその電荷を蓄積する期間であり、 シャツタ動作が行われていないときは画像時 間間隔 (1フレーム期間) と等しいものである。 また、 シャツタ動作が行われる ときはシャツタ開時間と等しいものである。
図 3 Aおよび図 3 Bは、 画像信号で示される撮像画像を説明するための図であ る。 図 3 Aは、 動いている前景に対応する動きオブジェク ト O B fと、 静止して いる背景に対応するォブジェク ト O B bとを撮像して得られる画像'を示している 。 なお、 前景に対応する動きオブジェク ト O B fは、 矢印 A方向に水平移動して いるものとする。
図 3 Bは、 図 3 Aに示すように矢印 A方向に伸びたライン L (破線で示す) の 位置での画像と時間の関係を示している。 動きオブジェク ト O B fのラインしに おける移動方向の長さが例えば 9画素分であり、 1露光期間中に 5画素移動する 場合、 フレーム期間開始時に画素位置 P 21にあった前端と画素位置 P 13にあつ た後端は、 それぞれ画素位置 P 25, P 17で露光期間の終了となる。 また、 シャ ッタ動作が行われていないとき、 1フレームにおける露光期間は 1フレーム期間 と等しいことから、 次のフレーム期間開始時に前端が画素位置 P 26、 後端が画 素位置 P 18となる。
このため、 ライン Lのフレーム期間において、 画素位置 P 12までと画素位置 P 26からは、 背景成分のみの背景領域となる。 また、 画素位置 P 17〜P 21は、 前景成分のみの前景領域となる。 画素位置 P 13〜 P 16と画素位置 P 22〜 P 25は 、 背景成分と前景成分が混合された混合領域となる。 混合領域は、 時間の経過に 対応して背景成分が前景に覆い隠されるカバードバックグランド領域と、 時間の 経過に対応して背景成分が現れるアンカバードバックグランド領域に分類される 。 なお、 図 3 Bでは、 前景のオブジェク ト O B fの進行方向前端側に位置する混 合領域がカバードバックグランド領域、 後端側に位置する混合領域がアンカパー ドバックグランド領域となる。 このように、 画像信号には、 前景領域、 背景領域 、 またはカバードバックグランド領域若しくはアンカバードバックグランド領域 を含む画像が含まれることとなる。 ここで、 画像時間間隔は短時間であり、 前景に対応する動きオブジェク ト OB fは剛体であって等速に移動していると仮定して、 ライン Lにおける画素値の時 間方向分割動作を図 4に示すように行う。 この時間方向分割動作では、 画素値を 時間方向に展開して仮想分割数で等時間間隔に分割する。 なお、 図 4において縦 方向は時間に対応し、 図中の上から下に向かって時間が経過することを示してい る。
仮想分割数は、 前景に対応する動きオブジェク トの画像時間間隔での動き量 V などに対応して設定する。 例えば、 1フレーム期間内の動き量 Vが上述のように 5画素であるときは、 動き量 Vに対応して仮想分割数を 「5」 に設定して、 1フ レーム期間を等時間間隔で 5分割する。
また、 背景に対応するォブジェク ト OBbを撮像したときに得られる画素位置 Pxの 1フレーム期間の画素値を Bx、 ライン Lにおける長さが 9画素分である 前景に対応する動きオブジェク ト O Bfを静止させて撮像したときに各画素で得 られる画素値を F 09 (前端側) 〜F01 (後端側) とする。
この場合、 例えば画素位置 P 14の画素値 DP 14は、 式 (1) で表される。
D P14=B14/v + B14/v + B14/v+ F01/v + F02/v · · · (1) この画素位置 P14では、 背景の成分を 3仮想分割時間 (フレーム期間/ V) 含 み、 前景成分を 2仮想分割時間含むので、 画素値に对する背景成分の混合比 αは (3/5) となる。 同様に、 例えば画素位置 Ρ22では、 背景の成分を 1仮想分 割時間含み、 前景成分を 4仮想分割時間含むので、 混合比 αは (1/5) となる このように、 前景の成分が移動することから、 1露光時間では、 異なる前景の 成分が加算されるので、 動きオブジェク トに対応する前景の領域は、 動きボケを 含むものとなる。 このため、 画像処理装置 20では、 画像信号 DVaに埋もれて しまった有意情報を抽出して前景に対応する動きオブジェク ト OBfの動きボケ を除去させた画像信号 DVoutを生成する。
ここで、 画像上の注目画素の画素値の算出動作について図 5を用いて説明する 。 例えば動きオブジェク ト OBfl ^の注目画素の画素値 F29を求める場合、 注目 画素の成分 F 29/vを含む画素位置 P47を処理対象の画素である着目画素とする と、 破線で示すように最初に注目画素の成分 F29/vが現れる画素位置 Ρ45、'お よび画素位置 Ρ 45と隣接して注目画素の成分 F 29/νを有していなレ、画素位置 Ρ 4 4については、 式 (2) が成立する。
F29— F24= (D P45-D P44) X ν · · · (2)
同様に、 破線で示すように最後に注目画素の成分 F29/vが現れる画素位置 P4 9、 およぴ画素位置 P 49と隣接して注目画素の成分 F 29/vを有していなレ、画素位 置 P50ついては、 式 (3) が成立する。
F34-F29= (D P50-D P49) X ν · · · (3)
すなわち、 注目画素の画素値 F29は、 画素位置 P44, P45の画素値 DP44, 0 45と画素値?24、 あるいは画素位置 P 49, P 50の画素値 DP 49, DP 50と 画素値 F34を用いて算出できる。
更に、 画素値 F24を注目画素の画素値 F29と同様にして求めることを考える と、 破線で示すように最初に成分 F24/Vが現れる画素位置 P40、 および画素位 置 P40と隣接して成分 F24/Vを有していない画素位置 P39については、 式 (4 ) が成立する。
F24-F19= (DP 40— DP 39) X v · · · · (4)
このため、 画素位置 P 39, P40, P44, P 45の画素値 DP 39, DP 40, DP 44, DP45と画素値 F19を用いて画素値 F29を算出できる。 また、 画素値 F34 も同様にして求めることができる。
以上のように考えると、 差分を求める画素の位置は、 動き量 Vの間隔を持って 繰り返し現れることとなる。 すなわち、 注目画素の画素値 F29は、 上述のよう に差分の算出に用いる画素位置 ' · ·, P39, P40, P44, P45, P49, P50 , · . · の画素値を用いて算出できる。
また、 注目画素の画素値をモデル式から算出する場合について説明する。 ここ で、 図 6に示すように注目画素 Pnaを中心として動き方向に (2N+ 1) 画素 分の処理領域を設定する。 図 7 Aおよび図 7 Bは処理領域の設定例を示しており 、 動きボケを除去させる動きオブジェクト OBfの画素に対して、 動きべクトル の方向が例えば矢印 Aで示すように水平方向である場合は、 図 7 Aに示すように 水平方向に処理領域 WAを設定する。 また、 動きべクトルの方向が斜め方向であ る場合は、 図 7 Bに示したように、 該当する角度方向に処理領域 WAを設定する 。 ただし、 斜め方向に処理領域を設定する際には、 処理領域の画素位置に相当す る画素値を、 補間等によって求める。
ここで、 処理領域内では、 図 8に示すように、 実世界変数 (Υ.8, · · ·,Υ0, · · ·, Υ8) が時間混合されている。 なお、 図 8は、 動き量 Vが 「v = 5j で あって処理領域を 13画素. (N= 6 : Nは注目画素に対する処理幅の画素数) と した場合である。
ボケ除去処理では、 この処理領域に対して実世界推定を行い、 榷定した実世界 の中心画素変数 Υ0に対応する画素値 D Q 0を、 動きボケ除去がなされた注目画 素の画素値とする。
ここで、 処理領域を構成する画素の画素値を Χ-Ν, Χ-Ν+1, · · · , Χθ, · ·
·, ΧΝ-Ι, ΧΝとすると、 式 (5) に示すような (2 N+ 1 ) 個の混合式が成立 する。 なお、 画素値 Xtは、 画素位置 Ptの画素値を示している。 定数 hは、 動き 量 Vを 1Z2倍したときの整数部分の値 (小数点以下を切り捨てた値) を示して いる。
Figure imgf000012_0001
(t=-N, ■ ■, 0, ■ ■ ,Ν)
しかし、 求めたい実世界変数 (Y-N-h, · · ·, Υ0, · · · , YN+h) は、 (2 N+v) 個ある。 すなわち、 変数の数よりも式の数が少ないので、 式 (5) に基 づき実世界変数 (Y-N-h, · · · , Yo, · · · , YN+h) を求めることができない 。
そこで、 式 (6) に示すように隣接画素差分 =0とする空間相関を用いた拘束 式を用いることで、 実世界変数よりも式の数を増やし、 最小自乗法を用いて、 実 世界変数の値を求める。
Figure imgf000012_0002
· · ·,0, · · ·,N+h-l) · · · (6) すなわち、 式 (5) で表される (2N+ 1) 個の混合式と式 (6) で表される (2N+ v-1) 個の拘束式を合わせた (4N+v) 個の式を用いて、 (2N + V) 個の未知変数である実世界変数 (Y-N.h, · · · , Yo, · · · , YN+h) を 求める。
ここで、 各式において発生する誤差の二乗和が最小となるような推定を行うこ とで、 動きボケ除去画像生成処理を行いながら、 実世界での画素値の変動を小さ くできる。
式 (7) は、 図 8に示すように処理領域を設定した場合を示しており、 式 (5 ) ある。
Figure imgf000013_0001
Figure imgf000013_0002
(7) この式 (7) は式 (8) として示すことができ、 式 (9) に示す誤差の二乗和 Eを最小とするような Y ( = Yi) は式 (10) として求まる。 なお、 式 (10
) において、 Tは転置行列であることを示している。 A Y = X + θ
E=|e|Z=∑ emi2 +∑ebi
γ = (ΑτΑ)" ATX ( 1 0) ここで、 誤差の二乗和は式 (1 1) で示すものとなり、 この誤差の二乗和を偏 微分して、 式 (1 2) に示すように偏微分値が 0となるようにすれば、 誤差の二 乗和が最小となる式 (10) を求めることができる。
E = (AY-X)T(AY-X)
=YTAT AY - 2 YTAT X+ XTX ( 1 1 )
6Ε / ΘΥ= 2 (ΑΤΑΥ- ΑτΧ) = 0 ( 1 2) この式 (10) の線形結合を行うことで、 実世界変数 (Y.N.h, · · · , Y0, • · ·, YN+h) をそれぞれ求めることができ、 中心画素変数 Yoの画素値が注目 画素の画素値となる。
上述では、 A Y = X+eにおける誤差の二乗和 Εを最小とするように、 最小自 乗法で実世界変数 (Y-N-h, · · ·, Y0, · · ·, YN+h) を求めているが、 式の 数 =変数の数となるように式を作ることも可能である。 この式を AY = Xとき、 Y = A_1Xと変形することにより、 実世界変数 (Y-N.h, · · · , Yo, · · · , YN+h) を求めることができる。
ここで、 図 5 Aに示す画素位置 P47を注目画素として画素値 F29を求めるも のとすると、 各画素に対して用いられる処理係数は、 図 5 Bのような形状を示す ものとなる。 すなわち、 差分の算出に用いる画素位置の画素に対する処理係数の 絶対値が他の画素に対する係数よりも大きくなる。 このような、 差分の算出に用 いる画素位置の画素を主要項とする。
空間方向の主要項の位置は、 図 9に示すように、 注目画素 Pnaを基準として 動き方向に動き量に応じた画素位置となる。 なお、 主要項 MCalは注目画素に 対して動き方向に最も近接した主要項、 主要項 MCblは動き方向とは逆方向で 最も近接した主要項を示している。
時間方向の主要項の位置は、 図 10に示すように、 複数の画像上の同じ画素位 置に重なるものとなる。 また、 上述の主要項 MCal, MCblについて着目する と、 ( t一 1) フレームの画像上の主要項 MCalの位置は ( t ) フレームの画 像上の主要項 MCblの位置となる。 従って、 (t— l) フレームと ( t ) フレ —ムとの真ん中の位相であって、 主要項 MCal, MCblと略同じ ίί素位置が、 注目画素 Pnaに相当する。 正確には、 主要項 MCalは画素値 X.3, X.2の画素、 主要項 MCblは画素値 X2, X3の画素に相当し、 注目画素 Pnaの空間的な位置は
、 画素値 X-3である画素と画素値 X-2である画素の中間位置、 あるいは画素値 X2 である画素と画素値 X 3である画素との中間位置に相当する。
ここで、 図 1 1 Aに示すように、 空間方向の主要項のみを使用して、 空間方向 に存在する主要項 M C alと主要項 M Cblとの真ん中である画素位置を、 動きボ ケ除去後の注目画素 Pnaの出力位置とする場合、 注目画素 Pnaの動きべク トル を精度良く検出しないと、 破線で示すように主要項 MCal, MCbl等の位置が 大きく変動してしまうことから、 注目画素 Pnaの動きボケを精度良く除去する ことができなくなってしまう。
また、 図 1 1 Bに示すように、 空間方向の主要項のみを使用して、 フレーム間 の真ん中を、 動きボケ除去後の注目画素 Pnaの出力位相とする場合、 主要項 M Cblの位置は動きべク トルの検出精度による影響が少ないが、 残りの主要項 M Cal等の位置は破線で示すように動きべク トルの検出精度による影響が大きい ことから、 注目画素 Pnaの動きベク トルを精度良く検出しないと、 注目画素 Pn aの動きボケを精度良く除去することができなくなってしまう。
また、 時間方向の主要項を用いる場合であっても、 図 1 1 Aと同様に主要項 M Calと主要項 MCblとの真ん中である画素位置を、 動きボケ除去後の注目画素 Pnaの出力位置とする場合、 注目画素 Pnaの動きべク トルを精度良く検出しな いと、 時間方向の主要項の位置が変動してしまうことから、 動きボケを精度良く 除去することができなくなってしまう。 そこで、 図 1 2に示すように、 時間方向の主要項を使用して、 フレーム間の真 ん中を動きボケ除去後の注目画素 P naの出力位相として注目画素 P naの動きボ ケ除去後の画素値を生成する。 すなわち、 図 1 0に示す (t一 1 ) フレームの画 像上の主要項 M Calと (t ) フレームの画像上の主要項 M Cblを用いて、 ( t 一 1 ) フレームと ( t ) フレームとの真ん中の位相であって、 主要項 M C al, MCblと略同じ空間位置の画素を注目画像の注目画素 P naとして動きボケ除去 後の画素値を生成する。 このように、 動きボケ除去後の注目画素 P naの出力位 相を (t— 1 ) フレームと (t ) フレームの真ん中としたとき、 時間の方向の主 要項の位置は、 動きべク トルの検出精度による影響が少ないので、 動きべク トル を精度良く検出できなくとも、 主要項の位置は大きく変化することがなく、 動き べク トルの検出精度に大きく影響されることなく動きボケ除去を良好に行うこと ができる。
また、 (t一 1 ) フレームと (t ) フレームの主要項の係数の形状は、 図 1 0 からも明らかなように、 注目画素 P naの位置に対して時間方向でそれぞれプラ スマイナスが入れ替わつたような複数画素分の係数すなわち複数組の係数になつ ている。 そのため、 時間的に前後の画素値がほぼ同一で空間的にも相関が強い静 止背景のような場合には、 前後の大きい係数同士が互いに打ち消しあい、 結果と して小さい係数を割り当てたときと同じとなる。 従って、 動き量が大きいォブジ エタ トに対する動きボケ除去を静止背景等に対して行っても、 画像の破綻を生じ 難くすることができる。 しかし、 検出された動きベク トルの誤差が大きいと破綻 を生じるおそれがあることから、 後述する処理係数の学習において、 静止画像の 破綻に対する口バスト性を向上させる。
このように、 時空間方向の主要項を使用して、 フレーム間の真ん中を、 動きボ ケ除去後の注目画素 P naの出力位相とした動きボケ除去を行う画像処理装置の 機能ブロック図を図 1 3に示す。 なお、 画像処理装置の各機能はハードウェアで 実現するか、 ソフトウェアで実現するかは問わない。 つまり、 図 1 3の機能プロ ックは、 ハードウェアで実現するものとしても良く、 ソフトウェアで実現するも のと してもよレ、。
ここで、 ソフトウヱァを用いるときの画像処理装置 2 0の構成を例えば図 1 4 に示す。 CPU (Central Processing Unit) 201は、 ROM (Read Only M emory) 202、 または記憶部 208に記憶されているプログラムに従って各種 の処理を実行するものであり、 ROM202や記憶部 208には、 画像処理装置 の各機能を実現するプログラムが記憶される。 RAM (Random Access Memo ry) 203には、 C P U 201が実行するプログラムやデータなどが適宜記憶さ れる。 これらの CPU201、 ROM 202、 および RAM 203は、 バス 20 4により相互に接続されている。
また、 C PU 20 1には、 バス 204を介して入出力ィンタフェース 205が 接続されている。 入出力インタフェース 205には、 キーボード、 マウス、 マイ クロホンなどよりなる入力部 206、 ディスプレイ、 スピーカなどよりなる出力 部 207が接続されている。 CPU201は、 入力部 206から入力される指令 に対応して各種の処理を実行する。 そして、 CPU201は、 処理の結果得られ た画像や音声等を出力部 207に出力する。
入出力インタフェース 205に接続されている記憶部 208は、 例えばハード ディスクなどで構成され、 CPU 201が実行するプログラムや各種のデータを 記憶する。 通信部 209は、 インタ一ネッ卜、 その他のネットワークを介して外 部の装置と通信する。 この例の場合、 通信部 209はセンサの出力を取り込む取 得部として働く。 また、 通信部 209を介してプログラムを取得し、 記憶部 20 8に記憶してもよレ、。
入出力インタフェース 205に接続されているドライブ 2 10は、 磁気ディス ク、 光ディスク、 光磁気ディスク、 あるいは半導体メモリなどの記録媒体が装着 されたとき、 それらを駆動し、 記録媒体に記録されているプログラムやデータな どを取得する。 取得されたプログラムやデータは、 必要に応じて記憶部 208に 転送されて記憶される。
図 1 3に示すように、 画像処理装置 20に供給された画像信号 DVaは、 動き 方向検出部 32の方向検出処理部 321と、 周辺画像保持部 33の第 1画像保持 部 331と第 2画像保持部 332に供給される。
注目画素設定部 31は、 予測する注目画像内の注目画素 Pnaの設定を行う。 ここで、 上述の図 10および図 1 2を用いて説明したように、 (t— 1) フレー ムの画像上の主要項 MCalと (t) フレームの画像上の主要項 MCblを用いる ことにより、 (t一 1) フレームと (t) フレームとの真ん中の位相であって、 主要項 MCal, MCblと略同じ画素位置の画素である注目画素の動きボケ除去 後の画素値を求めることができる。 このため、 画像信号 DVaがプログレッシブ フォーマッ トの信号であるとき、 注目画素設定部 31は、 予測する注目画像を ( t - 1 ) フレームと (t) フレームとの真ん中の位相の画像として、 この注目画 像内の注目画素 Pnaの設定を行う。 また、 (t一 1) フレームと (t) フレー ムの画像を周辺画像とする。 画像信号 DVaがインタレースフォー^ッ 卜の信号 であるとき、 注目画素設定部 3 1は、 予測する注目画像を (t一 1) フィールド と (t) フィールドとの真ん中の位相の画像として、 この注目画像内の注目画素 Pnaの設定を行う。 また、 (t _ l) フィ一ノレドと (t) フィールドの画像を 周辺画像とする。
方向検出処理部 32 1は、 画像信号 DVaに基づき画素毎の動きべク トル検出 を行い、 注目画素設定部 3 1で設定された注目画素の動き方向を示す動き方向情 報 V daを動き方向選択部 322に供給する。 この方向検出処理部 321では、 ブロックマッチング法や勾配法等の手法を用いることで、 画素毎の動きべク トル を検出できる。
動き方向選択部 322には、 外部から情報 ETとして動き方向を示す動き方向 情報 vdbが入力可能とされており、 方向検出処理部 321から供給された動き 方向情報 V daあるいは外部から入力された動き方向情報 V dbの何れかを選択し て、 選択した動き方向情報 vdを画素値生成部 38 aに供給する。
周辺画像保持部 33の第 1画像保持部 33 1と第 2画像保持部 332は、 メモ リを用いて構成されており、 第 1画像保持部 331は、 周辺画像である ( t一 1 ) フレームの画像を保持する。 また、 第 2画像保持部 332は、 周辺画像である (t) フレームの画像を保持する。
画素値抽出部 36は、 注目画素の成分が主に含まれる主要項を抽出するため、 第 1画像保持部 33 1および第 2画像保持部 332に保持されている周辺画像か ら、 注目画素 Pnaの空間位置と略同じ位置の画素を少なくとも抽出して、 予測 タップ C aとして画素値生成部 38 aに供給する。 図 1 5 Aおよび図 1 5 Bは、 予測タップ C aを示.している。 画像信号 D Vaが プログレッシブフォーマットであるとき、 画素値抽出部 3 6は、 周辺画像である ( t - 1 ) フレームと (t ) フレームの画像から、 図 1 5 Aに示すように注目画 素 P naの空間位置と略同じ位置の画素を基準として、 例えば 2 1画素を予測タ ップとして抽出する。 画像信号 D Vaがインタレースフォーマットであるとき、 クラスタップ抽出部 3 5 1は、 図 1 5 Bに示すように注目画素 P naの空間位置 と同じ位置の画素を基準として、 周辺画像である (t ) フィールドの画像から 2 1画素を予測タップとして抽出し、 周辺画像である (t— 1 ) フィ'一ルドの画像 から注目画素 P naの空間位置と同じ位置を基準として 1 7画素を予測タップと して抽出する。
処理係数設定部 3 7 aは、 ボケ除去処理に用いる処理係数を予め記憶しており 、 動き方向選択部で選択された動き方向に対応する複数組の処理係数 d aを画素 値生成部 3 8 aに供給する。 また、 処理係数設定部 3 7 aは、 外部から情報 E T として動きボケの調整を可能とする調整情報 B Sが供給されたとき、 この調整情 報 B Sに基づいて、 画素値生成部 3 8 aに供給する処理係数 d aの切り換えを行 うことで動きボケ除去効果を調整する。 例えば、 最初に供給した処理係数で動き ボケが最適に行われないような場合が生じても処理係数を切り換えることで動き ボケを最適に除去することが可能となる。 また、 処理係数を切り換えることで意 図的に動きボケを残すことも可能である。
画素値生成部 3 8 aは、 動き方向選択部 3 2 2で選択された動き方向情報 v d に基づき、 画素値抽出部 3 6の第 1画像保持部 3 3 1から抽出した画素の画素値 を用いて、 処理係数設定部 3 7 aから供給された処理係数 d aに対応する動き方 向の画素値を算出する。 更に、 算出した画素値と処理係数設定部 3 7 aから供給 された処理係数 d aとの積和演算を行い画素値を生成する。 また、 第 2画像保持 部 3 3 2から抽出した画素の画素値を用いて、 処理係数設定部 3 7 aから供給さ れた処理係数 d aに対応する動き方向の画素値を算出する。 更に、 算出した画素 値と処理係数設定部 3 7 aから供給された処理係数 d aとの積和演算を行い画素 値を生成する。 この 2つの画素値を統合することで注目画素の画素値を生成して 、 画像信号 D Voutとして出力する。 このように、 複数の周辺画像の主要項の画素値を用いて注目画像内の注目面素 の画素値を生成することで、 注目画素の動きべク トルを精度良く検出することが できない場合が生じても、 動きボケ除去の性能低下を少なくすることができるた め、 動きべク トルの検出ずれに対して非常にロバストな動きボケ除去を行うこと が可能となる。
図 1 6は、 ソフトウ-ァで画像処理を行う場合のフローチャートを示している 。 ステップ ST 1で CPU20 1は、 動きボケの除去を行う注目画素を設定して ステップ ST 2に進む。 ステップ S T 2で C PU 20 1は、 注目画素の動き方向 を検出してステップ ST 3に進む。 ステップ ST 3で CPU201は、 画素値抽 出を行い、 周辺画像に設定した予測タップの画素値を抽出する。 すなわち、 CP U20 1は、 動きオブジェク トにおける注目画素の成分が主に含まれる主要項を 抽出するため、 注目画素と空間位置が略同じ周辺画像内の画素を少なくとも予測 タップとして、 この予測タップの画素値を抽出する。
ステップ ST4で CPU201は、 ステップ ST 2で検出した動き方向に応じ た処理係数を設定してステップ ST 5に進む。
ステップ ST5で CPU201は、 ボケ除去処理を各フレームに対して行う。 すなわち、 C PU 201は、 ステップ S T 3で抽出した予測タップの画素値とス テツプ S T 4で設定した処理係数との演算処理を行い、 ボケ除去がなされた画素 値を算出してステップ ST 6に進む。
ステップ ST6で CPU201は、 全画面に対してボケ除去処理が完了したか 否かを判別し、 ボケ除去処理が行われていない画素があるときはステップ S T 1 に戻り、 全画面に対してボケ除去が完了したときは処理を終了する。
ところで、 図 1 3の画像処理装置 20では、 動き方向選択部 322で選択した 動き方向に基づいて処理係数を設定するものとしたが、 動き方向だけでなく画像 の信号レベルも用いてクラス決定を行い、 決定されたクラスに応じて処理係数を 選択して画素値生成部に供給すれば、 更に精度良く動きボケ除去処理を行うこと ができる
図 1 7はクラス決定を行う画像処理装置の機能ブロック図を示している。 なお 、 図 1 3と対応する部分については同一符号を付し、 詳細な説明は省略する。 クラス決定部 35のクラスタップ抽出部 35 1は、 第 1画像保持部 33 1およ び第 2画像保持部 332に保持されている周辺画像から、 注目画素に対応する空 間位置を基準としてクラスタップを抽出して、 抽出したクラスタップ TPaをク ラス分類部 352に供給する。
図 18 Aおよぴ図 18 Bは、 クラスタップを示している。 画像信号 DVaがプ ログレツシブフォーマッ トであるとき、 クラスタップ抽出部 351は、 周辺画像 である (t一 1) フレームと (t) フレームの画像から、 図 1 8 Aに示すように 注目画素 Pnaに対応する空間位置を基準として、 例えば注目画素
Figure imgf000021_0001
る空間位置の画素と、 この画素に隣接する画素を含めて 9画素をクラスタップと して抽出する。 画像信号 DVaがインタレースフォーマットであるとき、 クラス タップ抽出部 351は、 図 1 8 Bに示すように注目画素 Pnaに対応する空間位 置を基準として、 例えば周辺画像である (t) フィールドの画像から注目画素 P naに対応する空間位置の画素と、 この画素に隣接する画素を含めて 9画素をク ラスタップとして抽出する。 また、 周辺画像である (t— 1) フィールドの画像 から注目画素 Pnaに対応する空間位置と重なりを持つ画素およびこの画素と隣 接する画素を含めて 1 2画素をクラスタップとして抽出する。
クラス分類部 352は、 動き方向検出部 32から供給された動き方向情報 vd やクラスタップ抽出部 351で抽出されたクラスタップ TPaに基づいてクラス 分類を行い、 クラスコード KAを決定して、 処理係数設定部 37bに供給する。 ここで、 クラスタップ抽出部 351で抽出されたクラスタップ TPaを用いて クラス分類を行う場合には、 クラスタップ TPaから算出したァクティビティに 基づいてクラス分類を行う。
ァクティビティとは、 隣接する画素間の差分値の和であり空間相関を示すもの である。 ここで、 図 18 Aに示すようにクラスタップが選択されたときは、 3画 素 X 3画素の合計 9画素の隣接する画素間の差分がアクティビティである。 また 、 図 1 8 Bの (t _ l) フィールドのようにクラスタップが選択されたときは、 4画素 X 3画素の合計 12画素の隣接する画素間の差分がァクティビティである 。 例えば、 図 19に示すようにクラスタップを抽出したとき、 画素を示すマス目 に記された文字を画素値とすると、 アクティビティ ACは式 (1 3) に基づいて 算出することができる。 なお、 空間相関が高い場合、 アクティビティ ACの値は 小さくなり、 空間相関が低い場合、 アクティビティ ACの値は大きくなる。
AC = I DPL-U-DPC-U I + I DPC-U-D PL-U I
Figure imgf000022_0001
+ I D PL-L-D PC-L I + I D PC-L-D PR.L |
+ I DPL-U-DPL I + I D PL -DPL-L I + I DPc-u-DPc I + I D Pc -D PC-L I + D P R-u— D PR I + I D PR — P R-L I
• · · (13) このようにして、 第 1画像保持部 331に保持されている周辺画像から抽出し たクラスタップから算出したァクティビティ ACt-1と、 第 2画像保持部 332 に保持されている周辺画像から抽出したクラスタップから算出したァクティビテ ィ ACtを用いて、 式 (14) のようにアクティビティクラス ALを決定する。
アクティビティクラス AL = ACtZ (ACt-l + ACt) X 100
· · · (14) 更に、 動き方向情報 vdとアクティビティクラス ALに基づいて、 クラスコー ド KAを決定する。
画素値抽出部 36は、 上述したように、 第 1画像保持部 331および第 2画像 保持部 332に保持されている周辺画像から、 注目画素 Pnaの空間位置と略同 じ位置の画素を少なくとも抽出して、 予測タップ Caとして画素値生成部 38b に供給する。
処理係数設定部 37 bは、 ボケ除去処理に用いる処理係数をクラスコード毎に 予め記憶しており、 クラス分類部 352から供給されたクラスコード K Aに応じ た処理係数 dbを選択して画素値生成部 38 bに供給する。 また、 処理係数設定 部 37bは、 外部から情報 ETとして動きボケの調整を可能とする調整情報 BS が供給されたとき、 この調整情報 BSに基づいて、 選択する処理係数の切り換え を行うことで動きボケ除去効果を調整する。 例えば、 クラスコード KAに応じた '処理係数 d bを用いたとき動きボケが最適に行われないような場合が生じても処 理係数を切り換えることで動きボケを最適に除去することが可能となる。 また、 処理係数を切り換えることで、 意図的に動きボケを残すことも可能である。 画素値生成部 38bは、 画素値抽出部 36から供給された予測タップ Caと処 理係数設定部 3 7bから供給された処理係数 dbとの演算処理を行い、 注目画像 内の注目画素の画素値を生成する。 例えば、 第 1画像保持部 331に保持されて いる周辺画像から抽出した予測タップと処理係数の積和演算を行い画素値を生成 する。 また、 第 2画像保持部 332に保持されている周辺画像から抽出した予測 タップと処理係数の積和演算を行い画素値を生成する。 この 2つの画素値を統合 することで注目画素の画素値を生成して、 画像信号 DVoutとして出力する。 このように、 複数の周辺画像の主要項の画素値を用いて注目画像内の注目画素 の画素値を生成することで、 注目画素の動きベク トルを精度良く検出することが できない場合が生じても、 動きボケ除去の性能低下を少なくすることができるた め、 動きべク トルの検出ずれに対して非常にロバストな動きボケ除去を行うこと が可能となる。
図 20は、 ソフトウエアで画像処理を行う場合のフローチャートを示している 。 ステップ ST 1 1で CPU201は、 動きボケの除去を行う注目画素を設定し てステップ ST 1 2に進む。 ステップ ST 12で CPU201は、 注目画素の動 き方向を検出してステップ ST 1 3に進む。 ステップ ST 1 3で CPU201は 、 注目画素のクラス決定を行う。 このクラス決定では、 注目画素の動き方向や、 注目画素の空間位置を基準として周辺画像に設定したクラスタツプの画素値に基 づきクラス分類を行ってクラスコードを決定する。 ステップ ST 14で CPU2 01は、 画素値抽出を行い、 周辺画像に設定した予測タップの画素値を抽出する 。 すなわち、 CPU20 1は.、 動きオブジェク トにおける注目画素の成分が主に 含まれる主要項を抽出するため、 注目画素と空間位置が略同じ周辺画像内の画素 を少なくとも予測タップとして、 この予測タップの画素値を抽出する。
ステップ ST 1 5で CPU201は、 ステップ S T 1 2で検出した動き方向と ステップ ST 1 3で決定したクラスに応じた処理係数を設定してステップ ST 1 6に進む。
ステップ ST 16で CPU201は、 ボケ除去処理を各フレームに対して行う 。 すなわち、 CPU201は、 ステップ ST 14で抽出した予測タップの画素値 とステップ S T 1 5で決定した処理係数との演算処理を行い、 ボケ除去がなされ た画素値を算出してステップ S T 1 7に進む。
ステップ S T 1 7で C P U 2 0 1は、 全画面に対してボケ除去処理が完了した か否かを判別し、 ボケ除去処理が行われていない画素があるときはステップ S T 1 1に戻り、 全画面に対してボケ除去が完了したときは処理を終了する。
次に、 処理係数設定部に記憶される処理係数を学習によって求めてボケ除去処 理を行う場合について説明する。
図 2 1は、 処理係数を学習によって求めてボケ除去処理を行う場'合の構成を示 したものである。 学習装置 6 0は、 教師画像と、 教師画像に動きボケを付加した 生徒画像を用いて学習処理を実行し、 この学習により得られる処理係数を画像処 理装置 2 0の処理係数設定部に記憶させる。 画像処理装置 2 0は、 入力画像とな る動きボケを含む画像から注目画素の空間位置と略同じ位置の画素を少なくとも 含むように予測タップを選択して、 この予測タップの画素値と処理係数設定部に 記憶されている処理係数を用いて、 演算処理を行いボケ除去が行われた注目画素 の画素値を求める。 教師画像は、 高速撮像カメラを用いて撮像した画像や静止画 像を用いる。 また、 生徒画像は、 高速撮像カメラを用いて撮像した画像を静止画 像として、 この画像を時間積分することにより生成する。 あるいは、 動き方向や 動き量を設定して、 この設定した動き方向や動き量に応じた動きボケとノイズを 静止画像に付加したものを生徒画像とする。
ここで、 生徒画像を生成する場合、 動きベク トルの検出ずれに対するロバスト 性を高めるため、 処理係数を求める動き量や動き方向の生徒画像だけでなく、 動 き量や動き方向のうち少なくとも何れか一方を変更した生徒画像を生成して、 こ れらの生徒画像を用いて学習を行い処理係数を設定する。 また、 静止しているォ ブジェク.トが含まれている画像に対して動きボケ除去を行っても、 静止している オブジェク トの画像が破綻しないように、 動き量を 「0」 として動きボケを付加 しない生徒画像を生成して、 この動きボケを付加していない生徒画像も用いて学 習を行い処理係数を設定する。 なお、 処理係数の学習では、 学習ソースを H Dフ ォーマツトゃ S Dフォーマツトの画像信号等に変化することによって、 各画像フ ォーマツ卜に応じた最適な係数を生成することも可能となる。 図 2 2は、 クラス決定を行わないときに用いる処理係数を生成するための学習 装置 6 0の機能ブロック図を示している。 動き設定部 6 1は、 動き方向の設定や 動き量の設定を行い、 設定された動き方向や動き量を示す動き情報 MHを生徒画 像生成部 6 2に供給する。 ここで、 動き方向の設定では、 例えば所定の角度差を 持って動き方向を複数設定する。 また、 各動き方向に対して異なる複数の動き量 をそれぞれ設定するものとしてもよい。
生徒画像生成部 6 2の動きボケ付加部 6 2 1は、 教師画像に対して動き情報 M Hで示された動き方向や動き量に応じた動きボケの付加を行い全 l f面移動部 6 2 2に供給する。 全画面移動部 6 2 2は、 動きボケが付加された教師画像を動き情 報 MHに基づく動き量で動き方向に全画面移動して、 生徒画像を生成する。 また、 生徒画像生成部 6 2は、 特定の割合で、 教師画像に動きボケを付加しな い生徒画像の生成を行う。 また、 動き設定部 6 1からの動き情報 MHによって示 された第 1の動き方向の動きボケに対応する予測係数を生成する際、 第 1の動き 方向に近い第 2の動き方向の動きボケを有する生徒画像の生成を特定の割合で行 う。 更に、 動きボケを付加しない生徒画像の生成や、 第 2の動き方向の動きボケ を有する生徒画像の生成の割合を切り換えて処理係数の生成を行う。
例えば、 動き情報 MHで示された動き方向の複数の生徒画像に、 動き情報 MH で示された第 1の動き方向に近!/、第 2の動き方向に応じた動きボケの付加や全画 面移動を行って生成した生徒画像を特定の割合で含めるものとする。 あるいは、 動き情報 MHで示された動き方向や動き量の複数の生徒画像に、 動き情報 MHで 示された動き方向や動き量と異なる動き方向や動き量に応じた動きボケの付加や 全画面移動を行つて生成した生徒画像を特定の割合で含めるものとする。 このよ うに、 動き方向や動き方向と動き量を変更した生徒画像を含めるものとすれば、 動き方向や動き量の変動による影響の受けにくい動きボケ除去処理を行うことが できる。 また、 動き量を 「0」 とした生徒画像の生成も行うものとすれば、 静止 画像に対する動きボケ除去処理も可能となる。 更に、 動き情報 MHで示された動 き方向や動き量とは異なる動き方向や動き量を含める割合を切り換えて処理係数 の生成を行い、 ユーザが所望の割合の処理係数を選択可能とする。 このように、 動き方向や動き量を含める割合を切り換えて生成した処理係数を選択可能とすれ ば、 ユーザの好みに応じた動きボケ除去処理を行うことができる。 例えば、 ユー ザが静止画部分の動きボケ除去を行うときには、 動き量を 「0」 とした生徒画像 の割合を多く して生成した処理係数を選択することで、 静止画部分の動きボケ除 去をより精度良く行うことができる。 また、 動き方向のばらつきが大きい動画部 分の動きボケ除去を行うときには、 動き方向が異なる生徒画像の割合を多くして 生成した処理係数を選択することで、 動き方向のばらつきが大きい動画部分の動 きボケ除去を精度良く行うことができる。
また、 生徒画像生成部 6 2で生徒画像を生成する場合、 2つの^徒画像の真ん 中の位相が教師画像となるように生徒画像を生成する。 例えば、 動きボケが付加 された教師画像を動き情報 MHで示された動き方向とは逆方向に動き量の 1ノ 2 だけ移動させて、 (t一 1 ) フレームの画像に相当する第 1の生徒画像を生成す る。 また、 動きボケが付加された教師画像を動き情報 MHで示された動き方向に 動き量の 1 2だけ移動させて、 例えば (t ) フレームの画像に相当する第 2の 生徒画像を生成する。 このように生徒画像を生成すると、 教師画像は注目画像に 相当し、 生徒画像は周辺画像に相当するものとなる。 全画面移動部 6 2 2で生成 した第 1の生徒画像は、 第 1画像保持部 6 2 3に記憶させる。 また、 全画面移動 部 6 2 2で生成した第 2の生徒画像は、 第 2画像保持部 6 2 4に記憶させる。 ノイズ成分付加部 6 2 5 , 6 2 6は、 画像信号 D Vaにノイズが重畳されてい ても、 このノイズの影響を受けることなく動きボケ除去処理を行うことができる ように、 画像信号 D Vaに重畳されるノイズ N Zを予め第 1および第 2の生徒画 像に重畳させて、 処理係数を学習させるためのものである。 このように、 ノイズ 成分付加部 6 2 5 , 6 2 6を設けて学習を行うことにより、 ノイズ成分付加部 6 2 5, 6 2 6を設けないで学習を行った場合よりもノイズの影響が少なく動きボ ケ除去処理を精度良く行うことが可能となる。 また、 ノイズ量を調整することで ボケ感を変化させることが可能となる。
ここで、 生徒画像に付加するノイズとしては、 例えば均一の輝度の被写体をデ ィジタルカメラゃビデオカメラで撮影して、 被写体画像の足し込みを行うことに より基準画像を生成する。 この基準画像を各々の撮影画像から差し引くことで得 られるノイズを用いる。 このようなノイズを用いるものとすれば、 実際に撮影し た画像に对する動きボケ除去をより効果的に行うことができる。
予測タップ抽出部 64は、 生徒画像生成部 62で生成された第 1および第 2の 生徒画像から、 上述の画素値抽出部 36と同様にして予測タップ Caの抽出を行 レ、、 予測タップの画素値を正規方程式生成部 651に供給する。
処理係数生成部 65の正規方程式生成部 65 1は、 予測タップ抽出部 64で抽 出した予測タップ Caの画素値と教師画像の画素値から動き方向毎に正規方程式 を生成し、 係数決定部 652に供給する。 係数決定部 652は、 正規方程式生成 部 65 1から供給された正規方程式に基づき処理係数を生徒画像^に演算して、 得られた生徒画像毎の処理係数を動き方向毎に処理係数設定部 37 aに記憶させ る。 この正規方程式生成部 651と、 係数決定部 652について更に説明する。 上述の画素値生成部 38 aは、 画素値抽出部 36で抽出された予測タップの画 素値と、 処理係数設定部 37aから供給された処理係数を用いて、 例えば式 (1
5) に示す線形結合を行い、 周辺画像毎にボケ除去処理後の画素値を生成する。
n
Figure imgf000027_0001
なお、 式 (1 5) において、 q' は、 ボケ除去が行われた画素の画素値を表し ている。 C i (iは、 1乃至 nの整数値で処理範囲の各画素を示す) は、 処理領域 の画素値を表している。 また、 diは処理係数を表している。
この式 (1 5) において、 学習前は処理係数 diのそれぞれが未定係数である 。 処理係数の学習は、 複数の教師画像 (静止画像) の画素を入力することによつ て行う。 教師画像の画素が m個存在し、 m個の画素の画素データを 「qk (kは 、 1乃至 mの整数値) 」 と記述する場合、 式 (1 5) から、 次の式 (16) が設 定される。
n
qk = 2_ d| X cik = qk' · · · ( 1 6 )
i=0
ここで、 式 (16) は、 右辺の演算を行うことで、 動きボケのない実際の画素 値 qkとほぼ等しいボケ除去後の画素値 qk' を得ることができる。 なお、 式 (1
6) において、 イコールではなくニアリーイコールとなっているのは誤差を含む からである。 すなわち、 右辺の演算結果であるボケ除去後の画素値は、 動きボケ のない実際の画像における注目画素の画素値と厳密には—致せず、 所定の誤差を 含むためである。
この式 (1 6) において、 誤差の自乗和を最小にする処理係数 diが学習によ り求まれば、 その処理係数 diは、 ボケ除去後の画素値 qkを動きボケのない画素 値に近づけるための最適な係数と考えられる。 従って、 例えば、 学習により集め られた m個 (ただし、 mは、 nより大きい整数) の画素値 qkを用いて、 最小自 乗法により最適な処理係数 d iを決定する。
式 (1 6) の右辺の処理係数 diを最小自乗法で求める場合の正姨方程式は、 式 (1 7) として表すことができる。 c1kx Qk c2kx Pk
cnkx qk
Figure imgf000028_0001
従って、 式 (1 7) に示す正規方程式を解くことで処理係数 diを決定できる 具体的には、 式 (1 7) で示される正規方程式の行列のそれぞれを、 次の式 ( 8) 乃至 (20) のように定義すると、 正規方程式は、 次の式 (2 1) のよう :表される。
Figure imgf000029_0001
di
d2
( 1 9 )
Figure imgf000029_0002
CMATDMAT= QMAT . . . (2 1 )
式 (1 9) で示されるように、 行列 DMATの各成分は、 求めたい処理係数 diで ある。 従って、 式 (2 1 ) において、 左辺の行列 CMATと右辺の行列 QMATが決定 されれば、 行列解法によって行列 DMAT (すなわち、 処理係数 ) の算出が可能 である。 具体的には、 式 (1 8) で示されるように、 行列 CMATの各成分は、 予 測タップ cikが既知であれば演算可能である。 予測タップ cikは、 予測タップ抽 出部 6 4により抽出されるので、 正規方程式生成部 6 5 1は、 予測タップ抽出部 6 4から供給される予測タップに ikのそれぞれを利用して行列 C MATの各成分を演 算することができる。
また、 式 (2 0 ) で示されるように、 行列 QMATの各成分は、 予測タップ c ikと 静止画像の画素値 q kが既知であれば演算可能である。 予測タップ c ikは、 行列 C MATの各成分に含まれるものと同一のものであり、 また、 画素値 q kは、 予測タツ プ c ikに含まれる注目画素 (生徒画像の画素) に対する教師画像の画素である。 従って、 正規方程式生成部 6 5 1は、 予測タップ抽出部 6 4より 給された予測 タップ c ikと、 教師画像を利用して行列 QMATの各成分を演算することができる。 このようにして、 正規方程式生成部 6 5 1は、 行列 C MATと行列 QMATの各成分 を演算し、 その演算結果を係数決定部 6 5 2に供給する。
係数決定部 6 5 2は、 上述した式 (1 9 ) の行列 DMATの各成分である処理係 数 d iを演算する。 具体的には、 上述した式 (2 1 ) の正規方程式は、 次の式 ( 2 2 ) のように変形できる。
Figure imgf000030_0001
式 (2 2 ) において、 左辺の行列 DMATの各成分が、 求める処理係数 d iである 。 また、 行列 C MATと行列 QMATのそれぞれの各成分は、 正規方程式生成部 6 5 1 より供給される。 従って、 係数決定部 6 5 2は、 正規方程式生成部 6 5 1より行 列 C MATと行列 QMATのそれぞれの各成分が供給されてきたとき、 式 (2 2 ) の右 辺の行列演算を行うことで行列 DMATを演算し、 その演算結果 (処理係数 d i) を 処理係数設定部 3 7 aに記憶させる。 また、 動き設定部 6 1で設定する動き方向 を切り換えて上述の学習を行うものとすれば、 複数組の、 予測タップの画素値と 教師画像内の注目画素との関係に基づき、 予測タップの画素値から教師画像内の 注目画素を予測する処理係数を、 少なくとも動き方向毎に、 処理係数設定部に記 憶させることができる。
また、 生徒画像生成部で付加したノィズに応じて処理係数を動き方向毎に処理 係数設定部 3 7 aに記憶させる。 このようにノイズに応じて処理係数を動き方向 毎に記憶させれば、 上述のように、 調整情報 B Sに基づき選択する処理係数を切 り換え可能とすることができる。 図 2 3は、 学習装置が実行する学習処理を示すフローチャートである。 ステツ プ S T 2 1では、 生成する処理係数の動き量と動き方向を設定する。
ステップ S T 2 2では、 動きボケ付加を行い、 ステップ S T 2 1で設定した動 き量に応じて教師画像に動きボケを付加する。 ステップ S T 2 3では、 全画面移 動を行い、 ステップ S T 2 2で動きボケを付加した教師画像をステップ S T 2 1 で設定された動き量や動き方向に基づいて全画面移動して、 周辺画像に対応する 生徒画像を生成する。 この生徒画像の生成では、 特定の割合で、 設定された動き 量および動き方向のうち少なくとも何れか一方を変更し、 変更後 動き量と動き 方向に基づき、 教師画像に動きボケの付加や全画面移動を行い生徒画像を生成す る。 また、 特定の割合で、 動き量を 「0」 とした生徒画像の生成も行う。
ステップ S T 2 4では、 ノイズ付加処理を行い、 生徒画像にノイズを付加する ステップ S T 2 5では、 ノイズが付加された生徒画像から予測タップを抽出す る。 ステップ S T 2 6では、 教師画像と抽出した予測タップを用いて少なくとも 動き方向毎に正規方程式を生成する。 ステップ S T 2 7では、 正規方程式を解い て処理係数を生成する。
ステップ S T 2 8では、 全画面に対して処理を施したか否かを判定して、 全画 面について処理を施していないときは、 新たな画素に対してステップ S T 2 1か らの処理を繰り返し、 全ての画素の処理が終了したときには、 学習処理を終了す る。
このように、 指定の動き量や動き方向に応じた処理係数を学習する際に、 指定 の動き量や動き方向の生徒画像だけでなく、 指定の動き量や動き方向と誤差を生 ずる生徒画像を学習ソースに含めることで、 動きべク トルの検出誤差に対する口 バスト性を向上させることが可能となり、 検出された動きべク トルが誤差を生じ ても、 動きボケ除去を良好に行うことができる。
また、 動き量を 「0」 として、 動きボケの付加されていない生徒画像を学習ソ ースに含めることで、 静止画像の破綻に対する口バスト性を向上させることが可 能となり、 検出された動きベク トルが誤差を生じても、 動きボケ除去を行ったと きに静止画像の破綻が生じてしまうことを防止できる。 更に、 処理係数の学習で 付加するノイズ量を調整することでボケ感を変化させたり、 ボケ量の違う生徒画 像の割合を調整して、 新たなボケ感を作り出すことも可能となる。
次に、 クラス決定を行うものとしたときに用いる処理係数を生成する学習装置
6 0の機能ブロック図を図 2 4に示している。 なお図 2 4において、 図 2 2と対 応する部分に同一符号を付し、 詳細な説明は省略する。
クラス決定部 6 3は上述のクラス決定部 3 5と同様にして注目画素にクラスコ 一ド K Bを決定して処理係数生成部 6 5の正規方程式生成部 6 5 1に供給する。 予測タップ抽出部 6 4は、 生徒画像生成部 6 2で生成された第 1 'および第 2の 生徒画像から、 上述の画素値抽出部 3 6と同様にして予測タップ C aの抽出を行 い、 予測タップの画素値を正規方程式生成部 6 5 1に供給する d
処理係数生成部 6 5の正規方程式生成部 6 5 1は、 予測タップ抽出部 6 4で抽 出した予測タップ C aの画素値と教師画像の画素値からクラスコード毎に正規方 程式を生成し、 係数決定部 6 5 2に供給する。 係数決定部 6 5 2は、 正規方程式 生成部 6 5 1から供給された正規方程式に基づき処理係数を演算して、 得られた 複数組の処理係数を処理係数設定部 3 7 bに記憶させる。 また、 処理係数の生成 を動き方向を切り換えて行うことで、 処理係数設定部 3 7 bには、 動き方向とク ラスに応じた複数組の処理係数を記憶させる。 また動き量を切り換えて処理係数 の生成を行うものとすれば、 更に精度の良い処理係数を得ることができる。 また、 生徒画像生成部で付加したノイズに応じて処理係数をクラス分けして、 処理係数設定部 3 7 b記憶させる。 このようにノイズに応じて処理係数をクラス 分けすれば、 上述のように、 調整情報 B Sに基づきクラスを変更して選択する処 理係数を切り換え可能とすることができる。
図 2 5は、 学習装置が実行する学習処理 (クラス決定を行う場合) を示すフロ 一チャートである。 ステップ S T 3 1では、 生成する処理係数の動き量と動き方 向を設定する。
ステップ S T 3 2では、 動きボケ付加を行い、 ステップ S T 3 1で設定した動 き量に応じて教師画像に動きボケを付加する。 ステップ S T 3 3では、 全画面移 動を行い、 ステップ S T 3 2で動きボケを付加した教師画像をステップ S T 3 1 で設定された動き量や動き方向に基づいて全画面移動して、 周辺画像に対応する 生徒画像を生成する。 この生徒画像の生成では、 特定の割合で、 設定された動き 量および動き方向のうち少なくとも何れか一方を変更し、 変更後の動き量と動き 方向に基づき、 教師画像に動きボケの付加や全画面移動を行い生徒画像を生成す る。 また、 特定の割合で、 動き量を 「0」 とした生徒画像の生成も行う。
ステップ S T 3 4では、 ノイズ付加処理を行い、 生徒画像にノイズを付加する 。 ステップ S T 3 5では、 クラス決定処理を行い、 ノイズが付加された生徒画像 を用いて画素毎にクラスコードを決定する。
ステップ S T 3 6では、 ノイズが付加された生徒画像から予測タ'ップを抽出す る。 ステップ S T 3 7では、 教師画像と抽出した予測タップを用いてクラス毎に 正規方程式を生成する。 ステップ S T 3 8では、 正規方程式を解いて処理係数を 生成する。
ステップ S T 3 9では、 全画面に対して処理を施したか否かを判定して、 全画 面について処理を施していないときは、 新たな画素に対してステップ S T 3 1か らの処理を繰り返し、 全ての画素の処理が終了したときには、 学習処理を終了す る。
このように、 指定の動き量や動き方向に応じた処理係数を学習する際に、 指定 の動き量や動き方向の生徒画像だけでなく、 指定の動き量や動き方向と誤差を生 ずる生徒画像を学習ソースに含めることで、 動きべク トルの検出誤差に対する口 バスト性を向上させることが可能となり、 検出された動きべク トルが誤差を生じ ても、 動きボケ除去を良好に行うことができる。 産業上の利用可能性
以上のように、 本発明にかかる画像処理装置と学習装置およびその方法は、 画 像センサを用いて現実社会を撮像して得られる画像信号に埋もれてしまった情報 を抽出する際に有用であり、 動きボケを除去した画像を得る場合に好適である。

Claims

請求の範囲
1 . 動き量を設定する動き量設定部と、
動き方向を設定する動き方向設定部と、 '
前記動き量と前記動き方向とに基づき、 教師画像に動きボケを付加して生徒画 像を生成する生徒画像生成部と、
前記生徒画像内の動きボケが生じている動きオブジェク トにおける前記注目画 素の成分が主に含まれる主要項を抽出するため、 前記教師画像内の'注目画素の空 間位置と略同じ前記生徒画像内の画素の画素値を少なくとも抽出する予測タップ 抽出部と、
少なくとも前記動き方向毎に、 複数組の、 前記予測タップ抽出部により抽出さ れた画素の画素値と、 前記教師画像内の注目画素との関係から、 前記予測タップ 抽出部により抽出された画素の画素値から前記教師画像内の注目画素を予測する 処理係数を生成する係数生成部とを備え、
前記生徒画像生成部は、 特定の割合で、 前記教師画像に動きボケを付加しない 生徒画像を生成する学習装置。
2 . 前記生徒画像生成部は、 第 1の動き方向の動きボケに対応する予測係数を生 成する際、 第 1の動き方向に近い第 2の動き方向の動きボケを有する生徒画像を 学習に用いる請求項 1記載の学習装置。
3 . 前記生徒画像生成部は、 前記生徒画像に更にノイズを付加する請求項 1記載 の学習装置。
4 . 前記予測タップ抽出部は、
前記生徒画像がインタレースフォーマツトのとき、 前記生徒画像内の第 1の複数 の画素の画素値を抽出し、
前記生徒画像がプログレッシブフォーマツトのとき、 前記生徒画像内の第 2の複 数の画素の画素値を抽出する請求項 1記載の学習装置。
5 . 前記教師画像内の注目画素に対応する前記生徒画像内の画素の画素値に基づ き、 前記注目画素のクラスを決定するクラス決定部を設け、
前記係数生成部は、 前記クラス決定部により検出されたクラス毎に、 前記教師 画像内の注目画素を予測する処理係数を生成する請求項 1記載の学習装置。
6 . 前記クラス決定部では、 前記教師画像内の注目画素に対応する前記生徒画像 内の画素の画素値のァクティビティに応じて、 前記注目画素のクラスを決定する 請求項 5記載の学習装置。
7 . 動き量を設定する動き量設定工程と、
動き方向を設定する動き方向設定工程と、
前記動き量と前記動き方向とに基づき、 教師画像に動きボケを付加して生徒画 像を生成する生徒画像生成工程と、
前記生徒画像内の動きボケが生じている動きオブジェク 卜における前記注目画 素の成分が主に含まれる主要項を抽出するため、 前記教師画像内の注目画素の空 間位置と略同じ前記生徒画像内の画素の画素値を少なくとも抽出する予測タップ 抽出工程と、
少なくとも前記動き方向毎に、 複数組の、 前記予測タップ抽出部により抽出さ れた画素の画素値と、 前記教師画像内の注目画素との関係から、 前記予測タップ 抽出工程により抽出された画素の画素値から前記教師画像内の注目画素を予測す る処理係数を生成する係数生成工程とを有し、
前記生徒画像生成工程では、 特定の割合で、 前記教師画像に動きボケを付加し ない生徒画像を生成する学習方法。
8 . コンピュータに、
動き量を設定する動き量設定ステップと、
動き方向を設定する動き方向設定ステップと、
前記動き量と前記動き方向とに基づき、 教師画像に動きボケを付加して生徒画 像を生成すると共に、 特定の割合で、 前記教師画像に動きボケを付加しない生徒 画像を生成する生徒画像生成ステップと、
前記生徒画像内の動きボケが生じている動きオブジェク トにおける前記注目画 素の成分が主に含まれる主要項を抽出するため、 前記教師画像内の注目画素の空 間位置と略同じ前記生徒画像内の画素の画素値を少なくとも抽出する予測タップ 抽出ステップと、
少なくとも前記動き方向毎に、 複数組の、 前記予測タップ抽出ステップにより 抽出された画素の画素値と、 前記教師画像内の注目画素との関係 ら、 前記予測 タップ抽出ステップにより抽出された画素の画素値から前記教師画像内の注目画 素を予測する処理係数を生成する係数生成ステップとを実行させる学習プロダラ ム。
PCT/JP2005/023997 2004-12-21 2005-12-21 学習装置と学習方法および学習プログラム WO2006068289A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2006549084A JP4872672B2 (ja) 2004-12-21 2005-12-21 学習装置と学習方法および学習プログラム
US11/722,141 US7940993B2 (en) 2004-12-21 2005-12-21 Learning device, learning method, and learning program
EP05822508A EP1830562A4 (en) 2004-12-21 2005-12-21 APPARATUS, METHOD AND PROGRAM FOR LEARNING
CN2005800439785A CN101088281B (zh) 2004-12-21 2005-12-21 学习装置和学习方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-369268 2004-12-21
JP2004369268 2004-12-21

Publications (1)

Publication Number Publication Date
WO2006068289A1 true WO2006068289A1 (ja) 2006-06-29

Family

ID=36601875

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/023997 WO2006068289A1 (ja) 2004-12-21 2005-12-21 学習装置と学習方法および学習プログラム

Country Status (6)

Country Link
US (1) US7940993B2 (ja)
EP (1) EP1830562A4 (ja)
JP (1) JP4872672B2 (ja)
KR (1) KR101211074B1 (ja)
CN (1) CN101088281B (ja)
WO (1) WO2006068289A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100061642A1 (en) * 2006-09-28 2010-03-11 Sony Corporation Prediction coefficient operation device and method, image data operation device and method, program, and recording medium

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101098087B1 (ko) * 2007-03-28 2011-12-26 후지쯔 가부시끼가이샤 화상 처리 장치, 화상 처리 방법, 화상 처리 프로그램을 기록한 컴퓨터 판독 가능한 매체
JP5061882B2 (ja) * 2007-12-21 2012-10-31 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム、並びに学習装置
JP4548520B2 (ja) * 2008-07-02 2010-09-22 ソニー株式会社 係数生成装置および方法、画像生成装置および方法、並びにプログラム
JP5526942B2 (ja) * 2010-03-31 2014-06-18 ソニー株式会社 ロボット装置、ロボット装置の制御方法およびプログラム
KR102163573B1 (ko) * 2018-11-23 2020-10-12 연세대학교 산학협력단 실시간 객체 탐지 시스템 학습을 위한 합성 데이터 생성 장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001250119A (ja) * 1999-12-28 2001-09-14 Sony Corp 信号処理装置および方法、並びに記録媒体
JP2002373336A (ja) * 2001-06-15 2002-12-26 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2003233817A (ja) * 2002-02-08 2003-08-22 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08147493A (ja) * 1994-11-15 1996-06-07 Matsushita Electric Ind Co Ltd アニメーション画像生成方法
US6987530B2 (en) * 2001-05-29 2006-01-17 Hewlett-Packard Development Company, L.P. Method for reducing motion blur in a digital image
JP4596216B2 (ja) * 2001-06-20 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596224B2 (ja) * 2001-06-27 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4596227B2 (ja) * 2001-06-27 2010-12-08 ソニー株式会社 通信装置および方法、通信システム、記録媒体、並びにプログラム
JP4441846B2 (ja) * 2003-02-28 2010-03-31 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001250119A (ja) * 1999-12-28 2001-09-14 Sony Corp 信号処理装置および方法、並びに記録媒体
JP2002373336A (ja) * 2001-06-15 2002-12-26 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2003233817A (ja) * 2002-02-08 2003-08-22 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100061642A1 (en) * 2006-09-28 2010-03-11 Sony Corporation Prediction coefficient operation device and method, image data operation device and method, program, and recording medium

Also Published As

Publication number Publication date
KR20070094740A (ko) 2007-09-21
KR101211074B1 (ko) 2012-12-12
EP1830562A1 (en) 2007-09-05
US20080075362A1 (en) 2008-03-27
CN101088281A (zh) 2007-12-12
CN101088281B (zh) 2011-09-07
JP4872672B2 (ja) 2012-02-08
JPWO2006068289A1 (ja) 2008-06-12
EP1830562A4 (en) 2012-08-01
US7940993B2 (en) 2011-05-10

Similar Documents

Publication Publication Date Title
US8452122B2 (en) Device, method, and computer-readable medium for image restoration
JP4646146B2 (ja) 画像処理装置、画像処理方法、およびプログラム
EP2164040B1 (en) System and method for high quality image and video upscaling
US7710461B2 (en) Image processing device, image processing method, and image processing program
US20120274855A1 (en) Image processing apparatus and control method for the same
CN102819825A (zh) 图像处理设备和方法、程序以及记录介质
WO2007119680A1 (ja) 撮像装置
US7751642B1 (en) Methods and devices for image processing, image capturing and image downscaling
US20060192857A1 (en) Image processing device, image processing method, and program
WO2006068292A1 (ja) 画像処理装置と画像処理方法および画像処理プログラム
WO2006068289A1 (ja) 学習装置と学習方法および学習プログラム
JP4867659B2 (ja) 画像処理装置と学習装置と係数生成装置および方法
US8269888B2 (en) Image processing apparatus, image processing method, and computer readable medium having image processing program
US8213496B2 (en) Image processing device, image processing method, and image processing program
JP7183015B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JPWO2007026452A1 (ja) 画像処理装置、及び画像処理方法
JP3209785B2 (ja) 動きベクトル検出装置
JP2004120603A (ja) 画像処理方法および装置並びにプログラム
JP4250807B2 (ja) フィールド周波数変換装置および変換方法
JP2011142400A (ja) 動きベクトル検出装置および方法、映像表示装置、映像記録装置、映像再生装置、プログラムおよび記録媒体
JP2009093676A (ja) 画像処理装置、画像処理方法、およびプログラム
JP3221052B2 (ja) 画像の手振れ検出装置
WO2023174546A1 (en) Method and image processor unit for processing image data

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KN KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020077012991

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2006549084

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 11722141

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2005822508

Country of ref document: EP

Ref document number: 200580043978.5

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2005822508

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11722141

Country of ref document: US