[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2013179560A1 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
WO2013179560A1
WO2013179560A1 PCT/JP2013/002737 JP2013002737W WO2013179560A1 WO 2013179560 A1 WO2013179560 A1 WO 2013179560A1 JP 2013002737 W JP2013002737 W JP 2013002737W WO 2013179560 A1 WO2013179560 A1 WO 2013179560A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
area
folded
unnecessary
region
Prior art date
Application number
PCT/JP2013/002737
Other languages
English (en)
French (fr)
Inventor
智英 石上
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2013537975A priority Critical patent/JPWO2013179560A1/ja
Priority to US14/116,473 priority patent/US20140079341A1/en
Publication of WO2013179560A1 publication Critical patent/WO2013179560A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal

Definitions

  • the present invention relates to an image processing apparatus and an image processing technique for removing an image of a designated unnecessary area in a still image and a moving image.
  • the present invention is widely used in the field of video and image information processing apparatuses such as digital video cameras, digital cameras, and DVD recorders.
  • the user designates an unnecessary area in advance, determines the area of the designated unnecessary area, and changes the processing contents according to the size of the area.
  • the isotropic diffusion equation + anisotropic diffusion equation is used if the area of the unnecessary region is less than the threshold, and the advection equation and Navier-Stokes (NS: Navier-) are used to prevent the texture from being inadvertently blurred.
  • the unnecessary area is complemented from the periphery using the Stokes equation (see, for example, Patent Document 1).
  • Patent Document 1 there is a problem that a large amount of calculation is required for image processing, and it takes a long time for image processing. In order to perform processing in a short time, an apparatus having a large processing capacity must be used. difficult. There is also a problem that if the area of the unnecessary area is large, a place where image processing has been performed is often unnaturally processed.
  • the present invention solves the above-described conventional problems, and provides an image processing apparatus that has a small amount of calculation and can realize a more natural unnecessary area complementing process.
  • an image processing apparatus includes an image acquisition unit that acquires an input image, and an acquisition unit that acquires area information that is information indicating an unnecessary area in the input image.
  • area information that is information indicating an unnecessary area in the input image.
  • the first folded image and the second folded image are generated by folding back from the boundary of the unnecessary area. For this reason, it is possible to complement the unnecessary area at high speed with a natural image including a component equivalent to the frequency of the texture around the unnecessary area.
  • the image processing apparatus and the image processing method of the present invention it is possible to perform a more natural unnecessary region complementing process with a small amount of calculation.
  • FIG. 1 is a configuration diagram of an image processing apparatus according to the first embodiment.
  • FIG. 2 is a diagram showing a flowchart of processing in the first embodiment.
  • FIG. 3 is a diagram for describing a method for generating a first folded image, a second folded image, and a composite image according to the first embodiment.
  • FIG. 4 is a diagram showing a graph of weighting factors.
  • FIG. 5 is a processing procedure diagram for generating a folded image in the first embodiment.
  • FIG. 6 is a diagram illustrating a flow from setting an unnecessary area to an input image until a composite image is displayed.
  • FIG. 7 is a diagram illustrating an example of a UI display.
  • FIG. 8 is a diagram illustrating an example of a UI display.
  • FIG. 1 is a configuration diagram of an image processing apparatus according to the first embodiment.
  • FIG. 2 is a diagram showing a flowchart of processing in the first embodiment.
  • FIG. 3 is a diagram for describing a method for
  • FIG. 9 is a diagram for explaining a processing method when there is an image different from the background image at a position close to the unnecessary area.
  • FIG. 10 is a diagram for explaining a processing method when there is an image different from the background image at a position close to the unnecessary area.
  • FIG. 11 is a configuration diagram of the image processing apparatus according to the second embodiment.
  • FIG. 12 is a diagram showing a flowchart of processing in the second embodiment.
  • FIG. 13 is a diagram showing an example of a boundary peripheral region of a mask image when texture analysis is performed in the second embodiment.
  • FIG. 14 is a diagram illustrating a histogram representing the frequency in the edge direction.
  • FIG. 15 is a diagram for describing a method of generating the first folded image and the second folded image in the second embodiment.
  • FIG. 16 is a configuration diagram of the image processing apparatus according to the third embodiment.
  • FIG. 17 is a diagram showing a flowchart of processing in the third embodiment.
  • FIG. 18 is a diagram illustrating an example of a region division result in the third embodiment.
  • FIG. 19 is a diagram showing a processing procedure of processing by a conventional unnecessary object removing device.
  • FIG. 19 shows a processing flow in image processing of the conventional unnecessary object removing apparatus described in Patent Document 1.
  • an unnecessary area designated by a UI such as a touch panel is converted into a mask image and acquired in step S101.
  • area calculation in an unnecessary region indicated by the mask image is performed in step S102.
  • step S103 it is determined whether or not the area calculated in step S102 is greater than or equal to a threshold value. If the area of the unnecessary area is less than the threshold (S103: Yes), the anisotropic diffusion equation and the isotropic diffusion equation are used to perform an unnecessary area complementing process for diffusing and propagating pixels from the periphery of the unnecessary area to the unnecessary area. (S104). If the unnecessary area is equal to or greater than the threshold value, the advection equation and the NS equation are used in combination to diffuse and propagate in order to prevent the unnecessary area complement processing result from blurring (S105).
  • the conventional configuration has a problem that the calculation amount is large because the calculation is repeatedly performed using a diffusion equation, a fluid transfer equation, and the like, and is propagated in time. Further, when the area of the unnecessary area is larger than a certain value on the basis of the NS equation, there is a problem that the result of complementary processing of the unnecessary area differs from the texture of the surrounding area, resulting in a blurred result.
  • an image processing apparatus includes an image acquisition unit that acquires an input image, and an acquisition unit that acquires area information that is information indicating an unnecessary area in the input image.
  • area information that is information indicating an unnecessary area in the input image.
  • region can be supplemented with the natural image containing the component equivalent to the frequency of the texture of an unnecessary area
  • the image generation unit determines that the number of pixels continuously arranged in the first direction in the first region is smaller than the number corresponding to the first width
  • the image generation unit A process of acquiring a pixel group continuously arranged in the first direction and arranging the pixel group by repeatedly folding back the first width in a direction opposite to the first direction as the first process.
  • the first folded image is generated by repeatedly performing in a direction orthogonal to the second region
  • the number of pixels continuously arranged in the first direction in the second region is less than the number corresponding to the second width.
  • a pixel group continuously arranged in the second direction of the second region is acquired, and the pixel group is repeatedly folded and arranged in the direction opposite to the second direction by the second width.
  • Direction perpendicular to the second direction as the second treatment It may generate the second wrapped image by performing repeated.
  • the unnecessary area can be complemented with a natural image including a component equivalent to the frequency of the texture around the unnecessary area at high speed.
  • the image generation unit further includes an area setting unit for setting a prohibited area, and (i) when the prohibited area is closer to the first direction than the unnecessary area, The first folded image is generated by repeatedly performing the first process in a direction orthogonal to the first direction in an area excluding the prohibited area, and (ii) the prohibited area is more second than the unnecessary area. If the second folded image is generated by repeatedly performing the second process in a direction orthogonal to the second direction in the region excluding the prohibited region from the second region, Good.
  • the first folded image or the second folded image is generated by acquiring the first pixel or the second pixel except for the prohibited area set by the area setting unit. For this reason, it is possible to prevent the first folded image or the second folded image from being generated using a texture that is clearly different from the texture around the unnecessary area.
  • region can be complemented with the natural image containing the component equivalent to the frequency of the texture of an unnecessary area
  • the image generation unit further includes an area setting unit for setting a search area, wherein the image generation unit (i) repeatedly performs the first process in the direction orthogonal to the first direction in the search area.
  • a second folded image may be generated by generating one folded image and (ii) repeating the second process in a direction orthogonal to the second direction in an area excluding the search area.
  • the first folded image or the second folded image is generated by acquiring the first pixel or the second pixel for the search region set by the region setting unit. For this reason, if a search area
  • the first direction may be a left direction from the boundary of the unnecessary area in the horizontal direction
  • the second direction may be a right direction from the boundary of the unnecessary area in the horizontal direction.
  • the image generation unit further includes (i) a third region adjacent to the third direction in the vertical direction and above the unnecessary region, by a third width in the third direction of the unnecessary region.
  • a third process in which a third pixel group in which a number of pixels are continuously arranged in the third direction is folded back in the direction opposite to the third direction with respect to the boundary of the unnecessary area is orthogonal to the third direction.
  • a composite image may be generated by combining with the folded image.
  • the image composition unit multiplies the pixel value by a first weight set for each pixel value of the plurality of pixels in the first folded image, and a plurality of pixels in the second folded image.
  • the synthesis may be performed by adding together each of a plurality of pixel values of the second folded image after being multiplied by the second weight.
  • the image composition unit may set the first weight and the second weight such that the weight is larger as the pixel is closer to the boundary of the unnecessary region.
  • the image composition unit for each of a plurality of pixels constituting the unnecessary area, the first weight multiplied by the pixel value of the first folded image at a position corresponding to the pixel, and the The first weight and the second weight are set so that the added value of the second weight multiplied by the pixel value of the second folded image at the position corresponding to the pixel is 1. May be.
  • a more natural image can be generated when a folded image is synthesized by folding pixels from a plurality of directions.
  • a texture analysis unit that determines the first direction and the second direction by analyzing a texture in a peripheral area of the unnecessary area may be provided. Specifically, the texture analysis unit detects the most frequent straight line from the edge strength and the edge angle obtained from the edge image of the input image, and detects the first direction and the second direction. It may be determined in both directions on the most frequent straight line. Further, the texture analysis unit detects a high-frequency angle from the edge angle for each pixel or region obtained from the edge image of the input image, and detects the first direction and the second direction. You may determine in a direction perpendicular
  • the image taken by the user cannot be taken completely horizontally and becomes an inclined image. Therefore, the horizontal component in the background area is often displayed tilted.
  • the texture analysis unit as in the above configuration, the inclination angle of the image can be detected and reflected in the direction of folding, so that a more natural composite image can be generated.
  • the image generating unit further includes an area dividing unit that divides an area around the unnecessary area in the input image into a plurality of areas that are sets of pixels having the same or similar characteristics, For each of the regions, a group of pixels in which the number of pixels corresponding to the width in the predetermined direction set in the unnecessary region in the predetermined direction is continuously arranged in the predetermined direction is defined in the predetermined direction with reference to the boundary of the unnecessary region.
  • a divided folded image may be generated by repeatedly performing the process of folding and arranging in the opposite direction in a direction orthogonal to the predetermined direction.
  • an image display unit for displaying the result of the image composition unit may be provided.
  • An image processing apparatus including a display unit capable of touch input by a user, wherein an area specified by touch input in an input image displayed on the display unit is an unnecessary area in the input image.
  • the touch input is detected again, and when the detected position by the detected touch input is a movement of a predetermined value or more,
  • the second detection unit that detects the direction of movement as the first direction, and the first region adjacent to the first direction of the unnecessary region include pixels corresponding to the width of the unnecessary region in the first direction.
  • a first process in which a first pixel group continuously arranged in one direction is folded and arranged in a direction opposite to the first direction with respect to the boundary of the unnecessary area is repeatedly performed in a direction orthogonal to the first direction.
  • An image generating unit that generates a first folded image, an image combining unit that generates a combined image by combining the input image and the first folded image, and the display unit that displays the combined image It is good also as an image processing apparatus provided with these.
  • FIG. 1 is a configuration diagram of an image processing apparatus according to Embodiment 1 of the present invention.
  • the image processing apparatus 100 of the present invention includes an image acquisition unit 101, a mask image acquisition unit 102, an image generation unit 110, and an image composition unit 105.
  • the image generation unit 110 includes a first image generation unit 103 and a second image generation unit 104.
  • the image processing apparatus 100 according to Embodiment 1 of the present invention may include an image display unit 106 as shown in FIG.
  • the image processing apparatus includes an image acquisition unit that acquires an input image, an acquisition unit that acquires region information that is information indicating an unnecessary region in the input image, and (i) the region information.
  • a first pixel group in which pixels corresponding to the first width in the first direction of the unnecessary region are continuously arranged in the first direction.
  • Generating a first folded image by repeatedly performing a first process of folding and arranging in a direction orthogonal to the first direction on the basis of the boundary of the unnecessary area, and (ii) In the second region adjacent to the second direction of the unnecessary region, a second pixel group in which pixels corresponding to a second width in the second direction of the unnecessary region are continuously arranged in the second direction, Based on the boundary of unnecessary areas And generating a second folded image by repeatedly performing a second process of folding back and arranging in the direction opposite to the second direction in a direction orthogonal to the second direction, and generating the image by the image generating unit An image compositing unit that generates a composite image by combining the first folded image and the second folded image.
  • the image acquisition unit 101 acquires input images such as still images and moving images taken by a digital camera or a digital video camera.
  • the image acquisition unit 101 sends the acquired input image to the mask image acquisition unit 102.
  • the mask image acquisition unit 102 is an acquisition unit that acquires an input image sent from the image acquisition unit 101 and a mask image that represents an unnecessary area specified by a user interface such as a touch panel from the user.
  • the mask image acquisition unit 102 sends the acquired input image and mask image to the first image generation unit 103 and the second image generation unit 104.
  • the mask image is, for example, an image (for example, a binarized image) to which a luminance value of 255 is assigned if it is an unnecessary region, and 0 otherwise.
  • the mask image acquisition unit 102 is not limited to acquiring a mask image as long as it acquires region information indicating an unnecessary region. That is, the mask image is included in the area information.
  • the method for identifying the unnecessary area is not limited.
  • the unnecessary area may be specified by touching the user so as to trace the boundary of a certain area on the screen.
  • the user may touch only one point on an image divided in advance into a plurality of areas, and an area including the touched point may be set as an unnecessary area.
  • an algorithm for automatically detecting an unnecessary area based on a predetermined constant may be provided without being specified by the user. For example, face detection and upper body detection may be performed by image processing or image recognition, and unnecessary area candidates may be detected in advance for each face or person.
  • motion detection may be performed by image processing or the like, and a moving object may be detected as a candidate for an unnecessary region, and a block unit having a close color may be used as a candidate for an unnecessary region by region division such as the MeanShift method.
  • the first image generation unit 103 acquires an input image and a mask image from the mask image acquisition unit 102, searches for a pixel in a first direction from a boundary of an unnecessary area indicated by the mask image (hereinafter referred to as “folding boundary”), A first folded image is generated by folding and arranging pixels searched for at the folding boundary.
  • the first image generation unit 103 generates a first folded image that complements the pixels in the unnecessary area, and then sends the first folded image to the image composition unit 105.
  • the folding boundary (hereinafter referred to as “first folding boundary”) in the first image generation unit 103 is a boundary that can be obtained by searching an unnecessary area in the first direction.
  • the first image generation unit 103 performs the first operation in the first direction of the unnecessary area in the first area adjacent to the first direction of the unnecessary area indicated by the mask image (hereinafter referred to as “first search area”).
  • a first pixel group in which pixels corresponding to the width (hereinafter referred to as “first search width”) are continuously arranged in the first direction is folded back in the direction opposite to the first direction with respect to the first folding boundary.
  • a first folded image is generated by repeating the first process in a direction orthogonal to the first direction. More specifically, the first image generation unit 103 acquires a first pixel group that is continuous in a row in a first direction that is adjacent to the first direction of the unnecessary region, and performs first folding of the first pixel group. The pixels closer to the boundary are arranged in the first direction with respect to the unnecessary area so as to be closer to the boundary of the unnecessary area.
  • the second image generation unit 104 acquires the input image and the mask image from the mask image acquisition unit 102, searches for a pixel in the second direction different from the first direction from the return boundary of the unnecessary area indicated by the mask image, and returns the return boundary.
  • a second folded image is generated by folding and arranging the searched pixels.
  • the second image generation unit 104 generates a second folded image that complements the pixels in the unnecessary area, and then sends it to the image composition unit 105.
  • the folding boundary (hereinafter referred to as “second folding boundary”) in the second image generation unit 104 is a boundary that can be obtained by searching an unnecessary area in the second direction.
  • the second image generation unit 104 uses a second width (hereinafter, “the second search region”) in the second direction of the unnecessary region in the second direction (hereinafter, “second search region”).
  • a second process in which a second pixel group in which a number of pixels (hereinafter referred to as “second search width”) are continuously arranged in the second direction is folded in the opposite direction of the second direction with the second folding boundary as a reference.
  • a second folded image is generated by repeatedly performing in a direction orthogonal to the two directions. More specifically, the second image generation unit 104 acquires a second pixel group that is continuous in a row in a second direction adjacent to the second direction of the unnecessary area, and performs second folding of the second pixel group. The pixels closer to the boundary are arranged in the second direction with respect to the unnecessary area so as to be closer to the boundary of the unnecessary area.
  • the image composition unit 105 acquires the first folded image, the second folded image, the input image, and the mask image from the first image generating unit 103 and the second image generating unit 104.
  • the image composition unit 105 performs composition by weighting and superimposing pixels of the first folded image and the second folded image according to the distance from the folding boundary that is a reference for folding the first folded image and the second folded image. Generate an image. Thereby, the image composition unit 105 sends the composite image in which the unnecessary area of the acquired input image is complemented to the image display unit 106.
  • the image display unit 106 displays an image composition result after complementing the unnecessary area sent from the image composition unit 105 on a liquid crystal display or the like.
  • the image display unit 106 may be included in the image processing apparatus according to the present embodiment. In the case of an image processing apparatus that does not include a display unit, the image display unit 106 may output to an external display unit. Good.
  • step S11 the image acquisition unit 101 acquires an input image.
  • step S12 the mask image acquisition unit 102 acquires a mask image.
  • the method for acquiring the mask image is as described above.
  • step S13a and step S93b the first image generation unit 103 and the second image generation unit 104 generate a first folded image in the first direction and a second folded image in the second direction, respectively.
  • the first direction and the second direction in the present embodiment are preset, and in the following description, the first direction is the left direction from the boundary of the unnecessary area on the horizontal direction, and the second direction is the horizontal direction. The direction is on the right side from the boundary of the unnecessary area.
  • the first direction and the second direction are not limited to this.
  • step S13a and step S13b based on the first direction and the second direction, a folding boundary is set for folding each pixel in the unnecessary area indicated by the mask image, and is a target to be folded based on the set folding boundary.
  • Fold each pixel is a luminance value or RGB value in each pixel.
  • the processing performed on the pixels is actually performed on the luminance value and the RGB value (that is, the pixel value) in each pixel.
  • step S14a and step S14b the image composition unit 105 multiplies each folded pixel by a weight.
  • the target pixel is folded back to the unnecessary area from a plurality of directions instead of a single direction, and each pixel from the folded plurality of directions is synthesized to generate a composite image.
  • a plurality of pixel values that is, pixel values from a plurality of directions
  • step S15 the image composition unit 105 synthesizes the first folded image and the second folded image that have been multiplied by the weights in step S14a and step S14b, and generates a synthesized image.
  • FIG. 3 shows an input image 210, a first folded boundary 211 in the first direction, a first folded image 212, a first direction 213, a weight coefficient 220 of the first folded image, and an image obtained by multiplying the weight coefficient by the first folded image.
  • a composite image 270 obtained by combining the image and the second folded image is shown.
  • step S13a and S13b Specific processing for generating a folded image will be described.
  • the first image generation unit 103 searches for a first folded boundary 211 that is a reference boundary for folding each pixel based on the first direction 213 (left in the horizontal direction). . That is, the first image generation unit 103 searches for the first return boundary 211 by specifying the boundary between the unnecessary area and the first search area. Then, the first image generation unit 103 searches for a pixel in the input image 210 from the first folding boundary 211 in the left direction, which is the first direction 213, and folds the pixel to an unnecessary area with the first folding boundary 211 as a boundary. A first folded image 212 is generated.
  • the second image generation unit 104 based on the second direction 243 (right in the horizontal direction), the second folding boundary 241 that is a reference boundary for folding each pixel.
  • the second image generation unit 104 specifies the boundary between the unnecessary region and the second region on the first direction side of the unnecessary region (hereinafter referred to as “second search region”), thereby setting the second folding boundary 241.
  • the second image generation unit 104 searches for a pixel in the input image 210 from the second folding boundary 241 to the right, which is the second direction 243, and folds the pixel to an unnecessary area with the second folding boundary 241 as a boundary.
  • a folded image 242 is generated.
  • step S14a and S14b a process for multiplying the folded images 212 and 242 by weights will be described.
  • the image composition unit 105 calculates a weighting factor 220 for each of the plurality of pixels of the first folded image 212 so that the weight becomes larger as the distance from the first folded boundary 211 is closer, and for each of the plurality of pixels of the first folded image 212. Is multiplied by a plurality of calculated weighting factors 220 to generate an image 230. Similarly, the image composition unit 105 calculates the weight coefficient 250 for each of the plurality of pixels of the second folded image 242 so that the weight becomes larger as the distance from the second folded boundary 241 becomes closer, and the plurality of the second folded image 242 An image 260 is generated by multiplying the calculated weighting coefficient 250 for each pixel.
  • the weighting factor at this time is set by an arbitrary method.
  • the first weighting factor is set to 0.84 and the second weighting factor is set to 0.16.
  • the first weighting factor and the second weighting factor are added together, 1
  • the first weighting coefficient and the second weighting coefficient may be set so that the addition value of the second weighting coefficient multiplied by the pixel of the second folded image at 1 is 1.
  • the weight may be calculated using a table such as the table in FIG. 10A, the weighting coefficient of the nearest pixel in the unnecessary area is set to 1.0 and the weighting coefficient of the farthest pixel in the unnecessary area is set to 0 according to the distance from the folding boundary.
  • the table for calculating the weighting coefficient in the first direction is shown.
  • FIG. 10B is a diagram showing the result of assigning the result of calculating the weighting factor in the first direction to each pixel using the table of FIG.
  • FIG. 10A when the number of pixels in the unnecessary area is 11.
  • FIG. 10C and FIG. 10D are diagrams showing a weight calculation table in the second direction and a weight coefficient assigned to each pixel when the number of pixels in the unnecessary area is 11.
  • FIG. 10C and FIG. 10D are diagrams showing a weight calculation table in the second direction and a weight coefficient assigned to each pixel when the number of pixels in the unnecessary area is 11.
  • the weight is increased as the distance from the folding boundary becomes larger and the weights in a plurality of directions are set to be 1, the pixels from the plurality of directions can be accurately reflected in the folded image.
  • the second table may not be provided. That is, in that case, the weight in the second direction may be calculated so as to be 1 based on the weight coefficient calculated by the first table.
  • a table represented by a quadratic function (curve) or the like may be provided. That is, the shape of the function is limited if the table is a monotonically decreasing function in which the weighting factor of the pixel closest to the folding boundary is set to 1.0 and the weighting factor of the farthest pixel in the unnecessary region is set to 0. Not.
  • the weight calculated by the above method is multiplied by each pixel value in each folded image.
  • step S15 a process of adding a plurality of images multiplied by weights.
  • the image 230 and the image 260 are added together to generate a composite image 270 that complements the unnecessary area. It can be seen that a certain pixel 201 is obtained by adding a calculated value 0.84 from the first image and a calculated value 0.64 from the second image to obtain a combined value of 1.48.
  • each weighting factor for pixels other than unnecessary areas of the first folded image and the second folded image is set to 0.5.
  • the processing procedure of the folded image generation process of the image generation unit 110 in S13a and S13b will be described in more detail with reference to FIG.
  • the folded image generation processing can be decomposed into processing in units of rows.
  • step S21 the image generation unit 110 sets the line of the input image to be calculated as the first line, and moves to step S22.
  • step S22 the image generation unit 110 determines whether there is an unprocessed line including a unnecessary area. If there is an unprocessed line (S22: Yes), there is no unprocessed line in step S23. In the case (S22: No), the generation processing of the folded image is completed, and thus the generation processing ends.
  • step S23 the image generation unit 110 determines whether an unnecessary area is included in the calculation target row. If the unnecessary area is not included (S23: No), the process proceeds to step S27. If the unnecessary area is included (S23: Yes) moves to S24.
  • step S24 the image generation unit 110 specifies a folding boundary in the unnecessary area corresponding to the folding direction (that is, the first direction or the second direction), and moves to step S25.
  • step S25 the image generation unit 110 calculates the search width of the unnecessary area (that is, the width of the unnecessary area in the row) serving as a reference for determining the return width from the return boundary specified in step S24, and then proceeds to step S26.
  • the “unnecessary area search width” here is the first search width in the case of the process of generating the first folded image, and the second in the case of the process of generating the second folded image. Search width.
  • step S ⁇ b> 26 the image generation unit 110 searches for pixels in the specified folding direction by the search width of the unnecessary area from the folding boundary, and folds back the pixels corresponding to the search width searched from the folding boundary as one line. Minutes, and moves to step S27.
  • step S27 the calculation target line is incremented by 1, and the process moves to step S22. That is, in step S27, a process is performed in which the next line after the line that is the target of the process up to step S26 is a calculation target. If there is no next line, the generation process may be terminated.
  • FIG. 6 is a diagram showing an example of UI display employed in an image pickup apparatus with an image display unit 106, a portable terminal, or the like as the image processing apparatus 100 according to the present invention.
  • the user designates an unnecessary area on the input image 301 by touching or tracing the screen.
  • a mask image 302 is generated and the determined unnecessary area is displayed.
  • a composite image 303 is displayed when an input indicating determination or the like is performed or when a predetermined time has elapsed.
  • the mask image 302 does not necessarily have to be as shown in FIG. 6 and may be an image in which unnecessary regions are displayed in an easily understandable manner on the original image.
  • the outline of the unnecessary area may be surrounded by a frame, or may be displayed by filling all of a plurality of pixels constituting the unnecessary area with the same pixel (for example, black) indicating the unnecessary area.
  • the same pixel for example, black
  • FIG. 6 what is shown in FIG. 6 is merely an example, and UI display that guides the procedure of an operation method for removing unnecessary areas to the user may be adopted.
  • the image processing apparatus 100 is generated and synthesized by folding back along the folding boundary of the unnecessary area from each of the horizontal direction that is the first direction and the second direction.
  • the image processing apparatus 100 does not complement only from a single direction, but generates a plurality of folded images for complementing unnecessary areas from a plurality of directions, so that a natural complementing process capable of dealing with various scenes is possible. It is. Also, when generating a composite image, the pixels in the first direction and the second direction are multiplied by a weighting factor and then added together, so the result of adding the results as in the conventional method is combined. A more natural unnecessary area complementing process can be realized without blurring in the image.
  • the first direction and the second direction are the horizontal and horizontal directions, respectively, but other directions may be used. That is, for example, the first direction may be an upward direction in the vertical direction and the second direction may be a downward direction in the vertical direction. Further, the first direction and the second direction may not be aligned on the same straight line.
  • the image processing apparatus according to the present embodiment may newly include a direction determining unit.
  • a step may be newly added to the processing flow in which the direction determining unit determines a direction and sets a boundary for returning according to the determined direction.
  • first direction and the second direction are assigned as the horizontal direction, for example, the first direction and the second direction may be assigned by detecting the tilt of the camera using a digital compass or the like.
  • a folding direction may be assigned by performing a flick operation or the like to quickly move a finger in a desired direction determined by the user looking at the image,
  • the direction specified by the flick operation may be the first direction
  • the direction opposite to the first direction by 180 degrees may be the second direction.
  • the image processing apparatus includes a display unit capable of touch input by a user, and an area specified by touch input in the input image displayed on the display unit is an unnecessary area in the input image.
  • the touch input is detected again, and when the detected position by the detected touch input is a movement of a predetermined value or more,
  • the second detection unit that detects the direction of movement as the first direction, and the first region adjacent to the first direction of the unnecessary region include pixels corresponding to the width of the unnecessary region in the first direction.
  • the first process of arranging the first pixel group continuously arranged in one direction by folding back in the direction opposite to the first direction with reference to the boundary of the unnecessary area is repeatedly performed in the direction orthogonal to the first direction.
  • an image generating unit that generates a first folded image
  • an image combining unit that generates a combined image by combining the input image and the first folded image
  • the display unit that displays the combined image.
  • an image processing apparatus the region specified by touch input in the input image displayed on the display unit at a timing different from the detection by the first detection unit and the second detection unit.
  • a third detection unit that detects the prohibited area in the input image, and the image generation unit detects the prohibited area from the first area when the prohibited area is closer to the first direction than the unnecessary area.
  • the first folded image may be generated by repeatedly executing the first processing in a direction orthogonal to the first direction in the excluded region, and further, the first detection unit and the second detection unit An area specified by touch input in the input image displayed on the display unit at a timing different from the detection by the search area in the input image And detecting the first folded image by repeatedly executing the first process in a direction orthogonal to the first direction in an area within the search area. May be generated.
  • FIG. 7 shows a UI display in the operation at this time.
  • a search area for searching for a folded image may be specified. For example, a first rectangle that specifies an unnecessary area and a second rectangle that represents a search area for generating a folded image are displayed on the input screen, and the user adjusts the four corners of the rectangle to display the unnecessary area. You may instruct
  • FIG. 8 shows a UI display in the operation at this time.
  • the image processing apparatus 100 may determine the first direction and the second direction for folding using the direction specified by the user by the flick operation.
  • two rectangular points on the circumscribed rectangle that surrounds the unnecessary area are determined as an unnecessary rectangular area or a search area as a rectangular area having two diagonal points specified by the user on the touch panel.
  • the unnecessary area or the search area may be determined by adjusting the size or the position of the center of gravity by a pinch operation or the like.
  • the folded image is generated by performing the process of placing the pixels acquired from the search area by the amount corresponding to the search width of the unnecessary area from the folding boundary, but this is not limitative.
  • the search width of the unnecessary area is large, the search area for generating the return image is widened, and the background image around the unnecessary area should originally be complemented by the return, but the foreground image such as a person is included and returned. Therefore, an unnatural folding result may occur.
  • a threshold value may be provided for the search width, and when the search width is equal to or larger than the threshold value, it may be folded twice or folded three times.
  • the threshold value may be a predetermined fixed value, or may be the width of the first search area or the width of the second search area. In the latter case, the first search width is compared with the width of the first search region in the first direction, and the second search width is compared with the width of the second search region in the second direction.
  • the image generation unit determines that the number of pixels continuously arranged in the first direction in the first search region is smaller than the number corresponding to the first search width, the image generation unit moves in the first direction of the first region.
  • a process of acquiring consecutively arranged pixel groups and repeatedly folding and arranging the pixel groups in a direction opposite to the first direction by the first search width is repeatedly performed in a direction orthogonal to the first direction.
  • the first folded image may be generated.
  • the image generation unit determines that the number of pixels continuously arranged in the first direction in the second search region is smaller than the number corresponding to the second width
  • the image generation unit moves in the second direction of the second region.
  • a process of acquiring consecutively arranged pixel groups and repeatedly folding and arranging the pixel groups in a direction opposite to the second direction by a second width is repeatedly performed as a second process in a direction orthogonal to the second direction.
  • a second folded image may be generated.
  • the “repetitive folding and disposing process” here is, for example, in the case of a pixel group in which a plurality of pixels are continuously arranged in the first direction, opposite to the first direction on the basis of the first folding boundary.
  • the pixel group is folded and arranged in the direction, and then the pixel group is folded again in the opposite direction with reference to the pixel at the end in the opposite direction of the pixel group that has already been folded. .
  • the first search is performed by performing the “repetitive folding and arranging process” a plurality of times until the first search width is satisfied.
  • a first folded image of width can be generated. Further, as described above, the “repetitive folding and arranging process” is performed in the second direction as well.
  • a color or luminance difference from the folding boundary may be considered. This is because the probability of the background image around the unnecessary area is evaluated by the distance from the wrapping boundary, the color and brightness difference, and the edge strength, and the foreground image that is the cause of unnatural wrapping is not subject to wrapping. Is the method. For example, when a folded image is generated without considering the person A when the person A that is an area other than the background exists in the vicinity of the person B that is an unnecessary area as shown in FIG. A part of the pixel of the person A enters the part of the part as it is. Therefore, the intended composite image cannot be obtained. Therefore, as shown in FIG.
  • a threshold value (that is, a region having a predetermined width) is provided in the search region, and a region within the threshold value is set as the search region, and pixels in the search region are set a plurality of times (for example, twice). Or three times). That is, a process may be performed in which pixels in a search area that is an area within a threshold value are acquired, and the acquired pixels are repeatedly folded and arranged. Further, as shown in FIG. 9C, an area used for folding may be set using the probability of pixels around the unnecessary area.
  • the image processing apparatus may further include an area setting unit that sets a prohibited area.
  • the image generation unit when the prohibited area is closer to the first direction than the unnecessary area, the image generation unit generates the first folded image by acquiring the first pixel from the area excluding the prohibited area from the first area. To do.
  • the image generation unit when the prohibited area is on the second direction side from the unnecessary area, the image generation unit generates the second folded image by acquiring the second pixel from the area excluding the prohibited area from the second area.
  • the area setting unit may set the prohibited area based on an input by the user, or may set the prohibited area based on the result of image processing or image recognition using the probability of the background image, for example. . In other words, the prohibited area may be set by using the above-described method of detecting the unnecessary area by image processing or image recognition.
  • an unnecessary area exists near the edge of the image, it may be complemented only from the first direction.
  • a symmetrical image may be virtually created, and a search area for use in folding may be virtually created. That is, an aliased image may be generated by virtually arranging an inverted image of the input image in the second direction (rightward direction) of the input image and enlarging a search area for use in aliasing. .
  • the two processing units of the first image generation unit and the second image generation unit are used, but the present invention is not limited to this.
  • a third image generation unit that generates a third folded image by performing folding based on the third direction that is the upper direction of the boundary of the unnecessary region, and a fourth direction that is the lower direction of the boundary of the unnecessary region.
  • a fourth image generation unit that generates a fourth folded image by performing a reference folding, and the image composition unit stores the first folded image, the second folded image, the third folded image, and the fourth folded image. You may synthesize.
  • both directions on a straight line with an upper right angle of 45 degrees are set, and a fifth image is generated from the boundary of the unnecessary region to the upper right direction (fifth direction) and the lower left direction (sixth direction).
  • a sixth image generation unit is set.
  • both directions on the upper left oblique 45 degree line are set, and the upper left direction (seventh direction) and the lower right direction (eighth direction) from the boundary of the unnecessary area are set.
  • a seventh image generation unit and an eighth image generation unit may be provided.
  • the image composition unit may compose the first to eighth folded images.
  • an n-direction may be set and an image generation unit based on the direction may be provided, and a folded image generated by the image generation unit may be used for synthesis of the composite image.
  • the weighting factor for the first folded image may be set to be smaller than the weighting factor for the other second to nth folded images.
  • the search area may occupy a large number of search areas instead of the assumed background image. In this case, a result different from the tendency in other search areas is obtained. Therefore, after calculating the tendency in the search area in each direction, by increasing the ratio of image synthesis to the complemented folded image from the search area of similar tendency, the unnecessary area complement from the unintended image is minimized. There is an aim.
  • a part of the area that is originally intended to be deleted is not designated as an unnecessary area but is designated as an unnecessary area.
  • a part of the area that is originally desired to be erased exists outside the boundary of the area.
  • a folded image is generated, a part of the region that is originally desired to be deleted is included in the folded image, resulting in a problem that a composite image that is emphasized with twice the area is generated.
  • the boundary of the unnecessary area is expanded by an arbitrary pixel. That is, since an area larger than the area designated as the unnecessary area is specified as the unnecessary area, it is possible to deal with even if there is some area that is originally desired to be deleted.
  • the mask image and the input image are subjected to image processing, and the mask image is expanded so that the boundary (edge) of the unnecessary area of the mask image matches the edge of the input image. Is also possible.
  • the first folded image and the second folded image are generated as images having the same size as the input image. That is, the first folded image and the second folded image are images in which an image for complementing the unnecessary area is generated while maintaining the pixel values of the pixels in the area other than the unnecessary area of the input image.
  • the present invention is not limited to the above, and the first folded image and the second folded image may be generated as an image having the same size as the unnecessary area. That is, it may be generated as an image for replacing an unnecessary area.
  • the image synthesizing unit generates a complementary image for replacing the unnecessary area by synthesizing the first folded image and the second folded image.
  • the image composition unit composes the composite image by replacing the unnecessary area of the input image with the complementary image.
  • FIG. 11 is a configuration diagram of the image processing apparatus according to the second embodiment of the present invention.
  • the same components as those in FIG. 11 are identical to FIG. 11 in FIG. 11, the same components as those in FIG. 11 in FIG. 11, the same components as those in FIG. 11
  • the image processing apparatus 400 includes an image acquisition unit 101, a mask image acquisition unit 102, a texture analysis unit 401, an image generation unit 110, and an image composition unit 105.
  • the image generation unit 110 includes a first image generation unit 103 and a second image generation unit 104.
  • the image processing apparatus 400 according to Embodiment 2 of the present invention may include an image display unit 106 as shown in FIG.
  • the image processing apparatus 400 includes a texture analysis unit 401 that determines a first direction and a second direction by analyzing a texture in a peripheral region of an unnecessary region.
  • FIG. 12 is a flow for generating a composite image in the image processing apparatus 400 according to the present embodiment.
  • Step S11, step S12, step S13a, step S13b, step S14a, step S14b, and step S15 are the same as the processing for creating a composite image in the image processing apparatus of the first embodiment, and thus description thereof is omitted. To do.
  • step S31 the texture analysis unit 401 determines the first direction and the second direction.
  • FIG. 13 is a diagram illustrating an example of a peripheral region of the unnecessary region 501 used when determining the first direction and the second direction by texture analysis. That is, the texture analysis unit 401 determines the first direction and the second direction by analyzing the texture in the peripheral area of the unnecessary area.
  • the texture analysis unit 401 calculates a circumscribed circle 502 circumscribing the unnecessary area 501, calculates a circle corresponding to three times the radius of the circumscribed circle 502 as a peripheral area circle 503, and sets it as a target range for texture analysis.
  • the texture analysis unit 401 uses the Sobel filter or the like to generate an edge image that is the first derivative of the acquired input image within the peripheral region circle 503 that is the target range of the texture analysis.
  • the texture analysis unit 401 votes the histogram representing the frequency of the edge direction obtained by dividing the edge direction obtained from the edge image in several stages while weighting with the edge strength, and determines the angle orthogonal to the high-frequency angle as the first angle. Determine as direction and second direction. That is, the texture analysis unit 401 detects a high-frequency angle from the edge angle of each pixel or region obtained from the edge image of the input image, and detects the first direction and the second direction as the detected high-frequency angles. The direction perpendicular to.
  • the edge direction includes a lot of vertical directions, and thus a high-frequency angle obtained from the edge image corresponds to the vertical direction.
  • the horizontal direction orthogonal to the vertical direction is set as the folding direction, the unnecessary area can be complemented with the horizontal stripes cleanly.
  • FIG. 14 shows an example of a histogram representing the frequency in the edge direction.
  • the most frequent angle is 135 degrees, so the first direction and the second direction are determined as a 225 degree direction and a 45 degree direction orthogonal to the respective angles.
  • step S32 the texture analysis unit 401 determines a folding boundary using the first direction and the second direction which are the determined folding directions.
  • FIG. 15 is a diagram illustrating an example in which a folded image is generated by the first image generation unit 103 and the second image generation unit 104.
  • the first direction 601 and the second direction 611 are determined to be 225 degrees and 45 degrees, respectively, the first folding boundary 603 and the second folding boundary 604 are set, and the corresponding pixels are folded.
  • a first folded image 602 and a second folded image 612 are generated as illustrated.
  • the image processing apparatus 400 can generate a folded image corresponding to the texture in the peripheral area of the unnecessary area.
  • the image captured by the user cannot be captured completely horizontally and becomes a tilted image. Therefore, the horizontal component in the background area is often displayed tilted.
  • the inclination angle is detected and reflected in the direction of folding, so that a more natural composite image can be generated.
  • the texture analysis unit 401 may detect the most frequent straight line from the edge strength and edge angle obtained from the edge image of the input image, and set the first direction and the second direction as both directions on the detected straight line.
  • the texture analysis unit 401 may set the most frequently used angle as the first direction and set the direction opposite to the first direction by 180 degrees as the second direction.
  • the texture analysis unit 401 may set an angle orthogonal to the second most frequent angle as the third direction, and set a direction opposite to the third direction by 180 degrees as the fourth direction.
  • a synthesized image may be synthesized by using a folded image for.
  • the weighting coefficient used at the time of image composition may be adjusted according to not only the distance from the folding boundary but also the frequency of the angle.
  • the texture analysis unit may detect the inclination of the straight line on the entire screen or around the unnecessary area by image processing such as Hough transform, and set the detected inclination of the straight line as the first direction and the second direction.
  • the texture analysis unit 401 calculates the frequency in the edge direction with the peripheral boundary region as one region, but it may be divided into a plurality of regions and calculate the frequency in the edge direction for each of the plurality of regions.
  • the texture analysis unit in this case divides the peripheral area circle 503 of FIG. 13 into four in units of 90 degrees, and sets the most frequent direction of the edge direction in each of the divided peripheral area circles as the first direction and the first direction. Two directions, a third direction and a fourth direction are determined. Then, four folded images may be generated using the first to fourth directions determined by the texture analysis unit as a reference, and the four folded images may be equally combined to perform unnecessary region complementation.
  • the image composition unit may determine the weighting coefficient not only based on the distance from the folding boundary but also based on the distance from the center of gravity of the divided boundary peripheral area.
  • the first image generation unit 103 calculates a first return boundary from the first direction acquired from the texture analysis unit 401, the mask image, and the input image, and generates a first return image.
  • the second image generation unit 104 calculates a second return boundary from the second direction acquired from the texture analysis unit 401, the mask image, and the input image, and generates a second return image.
  • FIG. 16 is a configuration diagram of the image processing apparatus according to the third embodiment of the present invention. 16, the same components as those in FIGS. 1 and 11 are denoted by the same reference numerals, and the description thereof is omitted.
  • an image processing apparatus 700 includes an image acquisition unit 101, a mask image acquisition unit 102, an area division unit 701, an image generation unit 110, an image synthesis unit 105, and an image display unit 106.
  • the image generation unit 110 includes a first image generation unit 103 and a second image generation unit 104.
  • the image processing apparatus 700 according to Embodiment 3 of the present invention may include an image display unit 106 as shown in FIG.
  • the image processing apparatus 700 further includes an area dividing unit 701 that divides an area around the unnecessary area in the input image into a plurality of areas that are sets of pixels having the same or similar characteristics. .
  • FIG. 17 is a flow for generating a composite image in the image processing apparatus according to the present embodiment.
  • step S11, step S12, step S31, step S32, step S13a, step S13b, step S14a, step S14b, and step S15 the synthesized image is used in the image processing apparatuses 100 and 400 of the first embodiment and the second embodiment. Since it is the same process as the process at the time of creation, the description is omitted.
  • step S41 the area dividing unit 701 divides the image in the boundary peripheral area.
  • the image generation unit 110 sets a pixel group in which a number of pixels corresponding to the width in the predetermined direction set in the unnecessary area in the predetermined direction are continuously arranged in the predetermined direction as a reference based on the boundary of the unnecessary area.
  • the divided folded image is generated by repeatedly performing the process of folding and arranging in the direction opposite to the predetermined direction in the direction orthogonal to the predetermined direction.
  • the area dividing unit 701 acquires an input image and a mask image from the mask image acquiring unit 102 and divides the boundary peripheral area of the mask image.
  • region division method for example, region division by means of MeanShift method, region division by K-means method, cluster classification used in statistics, region division method used in image processing, or the like can be used. is there.
  • FIG. 18 is a diagram illustrating an example of the region division result.
  • the unnecessary region 801 there are boundary peripheral regions 811 to 814 divided into four regions, and the texture is divided for each of the boundary peripheral regions 811 to 814.
  • the analysis unit 401 calculates the folding direction, and the image synthesis unit 105 synthesizes four folded images, thereby realizing unnecessary area complementation.
  • boundary peripheral areas 811 to 814 obtained by dividing the area in step S41 are sent to the texture analysis unit 401, texture analysis is performed for each boundary peripheral area 811 to 814, and each direction and folding boundary are determined for each boundary peripheral area 811 to 814. To do.
  • the area is divided according to the characteristics of the peripheral area, and the direction of folding is determined for each of the divided areas. Therefore, a more natural composite image according to the texture of the background Can be generated.
  • the weighting coefficient applied to each folded image may take into account not only the distance from the folded boundary but also the distance from the center or the center of gravity of the divided area.
  • the above imaging device is specifically a computer system including a microprocessor, ROM, RAM, a hard disk unit, a display unit, a keyboard, a mouse, and the like.
  • a computer program is stored in the RAM or hard disk unit.
  • the imaging apparatus achieves its functions by the microprocessor operating according to the computer program.
  • the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
  • a part or all of the constituent elements constituting the above-described imaging apparatus may be configured by a single system LSI (Large Scale Integration).
  • the system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically, a computer system including a microprocessor, ROM, RAM, and the like. .
  • a computer program is stored in the RAM.
  • the system LSI achieves its functions by the microprocessor operating according to the computer program.
  • a part or all of the constituent elements constituting the imaging apparatus may be configured by an IC card or a single module that can be attached to and detached from the imaging apparatus.
  • the IC card or the module is a computer system including a microprocessor, a ROM, a RAM, and the like.
  • the IC card or the module may include the super multifunctional LSI described above.
  • the IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.
  • the present invention may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.
  • the present invention also provides a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray Disc). : Registered trademark), or recorded in a semiconductor memory or the like.
  • the digital signal may be recorded on these recording media.
  • the computer program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.
  • the present invention may be a computer system including a microprocessor and a memory, the memory storing the computer program, and the microprocessor operating according to the computer program.
  • program or the digital signal is recorded on the recording medium and transferred, or the program or the digital signal is transferred via the network or the like and executed by another independent computer system. You may do that.
  • each component may be configured by dedicated hardware, or may be realized by executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • the software that realizes the image decoding apparatus of each of the above embodiments is the following program.
  • this program is indicated by the image acquisition step of acquiring an input image to the computer, the acquisition step of acquiring region information which is information indicating an unnecessary region in the input image, and (i) the region information.
  • region information which is information indicating an unnecessary region in the input image
  • region information which is information indicating an unnecessary region in the input image
  • region information which is information indicating an unnecessary region in the input image
  • region information which is information indicating an unnecessary region in the input image
  • the region information In the first region adjacent to the first direction of the unnecessary region, a first pixel group in which pixels corresponding to the first width in the first direction of the unnecessary region are continuously arranged in the first direction, A first folded image is generated by repeatedly performing the first process of folding and arranging in the direction opposite to the first direction with respect to the boundary of the unnecessary area as a reference, and (ii) the unnecessary In a second region adjacent to the second direction of the region, a second pixel group in which pixels corresponding to a second width in the second direction of the unnecessary region are continuously arranged in the second
  • An image processing method including an image synthesis step of generating a synthesized image by synthesizing the first folded image and the second folded image generated in the step is executed.
  • the present invention is not limited to this embodiment. Unless it deviates from the gist of the present invention, one or more of the present invention may be applied to various modifications that can be conceived by those skilled in the art, or forms constructed by combining components in different embodiments. It may be included within the scope of the embodiments.
  • An image processing apparatus is an image processing apparatus or the like that has a small amount of calculation and can realize a more natural unnecessary area complementing process. This is useful as an unnecessary area removal application that can remove unnecessary areas.
  • Image processing apparatus 101
  • Image acquisition unit 102
  • Mask image acquisition unit 103
  • First image generation unit 104
  • Second image generation unit 105
  • Image composition unit 106
  • Image display unit 110
  • Image generation unit 201 Pixel 210
  • Input image 211
  • First folding Boundary 212
  • First fold image 213
  • First direction 220
  • Weight coefficient 230
  • Image obtained by multiplying first fold image 312 by weight coefficient 241 Second fold boundary 242 Second fold image 243
  • Weight coefficient 260
  • Second fold image 342 270
  • composite image 401
  • texture analysis unit 501 unnecessary area 502 circumscribed circle 503 peripheral area circle 601 first direction 602 first folded image 603 first folded boundary 604 second folded boundary 611 second direction 612 second Folded Return image 701
  • Region division unit 801 Unnecessary region 811 to 814 Border peripheral region

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

画像処理装置(100)は、入力画像を取得する画像取得部(101)と、入力画像の内で不要領域を示すマスク画像を取得するマスク画像取得部(102)と、不要領域の第一方向に隣接する第一領域において、第一探索幅分の数の画素が第一方向に連続して並ぶ第一画素群を、第一方向の反対方向に折り返して配置する第一処理を第一方向に直交する方向に繰り返して行うことにより第一折り返し画像を生成し、不要領域の第二方向に隣接する第二領域において、第二探索幅分の数の画素が第二方向に連続して並ぶ第二画素群を、第二方向の反対方向に折り返して配置する第二処理を第二方向に直交する方向に繰り返して行うことにより第二折り返し画像を生成する、画像生成部(110)と、画像生成部により生成された、第一折り返し画像と、第二折り返し画像との合成により、合成画像を生成する画像合成部(105)と、を備える。

Description

画像処理装置および画像処理方法
 本発明は静止画、動画における指定した不要領域の画像を除去する画像処理装置および画像処理技術に関するものである。本発明は、例えばデジタルビデオカメラ、デジタルカメラ、DVDレコーダ等の映像・画像系の情報処理装置分野に広く活用される。
 家族の写真撮影で意図せずに他人が一緒に写ってしまった場合や、観光名所の写真撮影で意図せずに建物以外の通行人が一緒に写ってしまった場合など、撮影後に当該写真撮影で得られた画像から不要な領域を除去したい要望がある。
 従来の不要領域の除去方法としては、事前にユーザが不要領域を指定することにより、指定された不要領域の面積を判定し、面積の大きさに応じて処理内容を変更するものがある。具体的には、不要領域の面積が閾値未満なら等方拡散方程式+異方拡散方程式を、閾値以上なら不用意にテクスチャがボケるのを防ぐため、移流方程式とナビエ・ストークス(NS:Navier-Stokes)方程式を利用し、不要領域を周辺から補完する(例えば、特許文献1参照)。
特開2007-286734号公報
 しかしながら、特許文献1の技術では、画像処理にかかる計算量が多く、画像処理に長い時間を要してしまうという問題があり、短時間で処理させるためには処理能力の大きい装置を利用しないと難しい。また、不要領域の面積が大きいと画像処理が行われた箇所が不自然に処理されることが多いという問題もある。
 本発明は、前記従来の課題を解決するもので、計算量が少なく、かつ、より自然な不要領域の補完処理が実現可能な画像処理装置を提供することにある。
 上記目的を達成するために、本発明の一態様に係る画像処理装置は、入力画像を取得する画像取得部と、前記入力画像の内で不要領域を示す情報である領域情報を取得する取得部と、(i)前記領域情報により示される前記不要領域の第一方向に隣接する第一領域において、前記不要領域の前記第一方向における第一の幅分の数の画素が前記第一方向に連続して並ぶ第一画素群を、前記不要領域の境界を基準として前記第一方向の反対方向に折り返して配置する第一処理を前記第一方向に直交する方向に繰り返して行うことにより第一折り返し画像を生成し、(ii)前記不要領域の第二方向に隣接する第二領域において、前記不要領域の前記第二方向における第二の幅分の数の画素が前記第二方向に連続して並ぶ第二画素群を、前記不要領域の境界を基準として前記第二方向の反対方向に折り返して配置する第二処理を前記第二方向に直交する方向に繰り返して行うことにより第二折り返し画像を生成する、画像生成部と、前記画像生成部により生成された、前記第一折り返し画像と、前記第二折り返し画像との合成により、合成画像を生成する画像合成部と、を備える。
 これにより、第一折り返し画像および第二折り返し画像を不要領域の境界から折り返すことにより生成している。このため、高速に、かつ、不要領域周辺のテクスチャの周波数と同等の成分を含む自然な画像で不要領域を補完することが可能である。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 本発明の画像処理装置および画像処理方法によれば、計算量が少なく、かつ、より自然な不要領域の補完処理を行うことができる。
図1は、実施の形態1における画像処理装置の構成図である。 図2は、実施の形態1における処理のフローチャートを示す図である。 図3は、実施の形態1における第一折り返し画像、第二折り返し画像、および合成画像の生成方法について説明するための図である。 図4は、重み係数のグラフなどを示す図である。 図5は、実施の形態1における折り返し画像生成の処理手順図である。 図6は、入力画像に対して不要領域を設定して、合成画像が表示されるまでの流れを示す図である。 図7は、UI表示の一例を示した図である。 図8は、UI表示の一例を示した図である。 図9は、不要領域に近い位置に背景画像とは別の画像がある場合の処理方法を説明するための図である。 図10は、不要領域に近い位置に背景画像とは別の画像がある場合の処理方法を説明するための図である。 図11は、実施の形態2における画像処理装置の構成図である。 図12は、実施の形態2における処理のフローチャートを示す図である。 図13は、実施の形態2におけるテクスチャ解析する際のマスク画像の境界周辺領域の一例を示した図である。 図14は、エッジ方向の頻度を表すヒストグラムを示す図である。 図15は、実施の形態2における第一折り返し画像および第二折り返し画像の生成方法について説明するための図である。 図16は、実施の形態3における画像処理装置の構成図である。 図17は、実施の形態3における処理のフローチャートを示す図である。 図18は、実施の形態3における領域分割結果の一例を示した図である。 図19は、従来の不要物除去装置による処理の処理手順を示す図である。
 (本発明の基礎となった知見)
 図19は、特許文献1に記載された従来の不要物除去装置の画像処理における処理フローを示すものである。
 図19において、タッチパネル等のUI(User Interface)で指定された不要領域はマスク画像に変換され、ステップS101で取得される。次に、マスク画像が示す不要領域における面積計算をステップS102で実施する。そして、ステップS102で算出された面積が閾値以上か否かをステップS103で判定する。不要領域の面積が閾値未満であれば(S103:Yes)、異方拡散方程式と等方拡散方程式を利用し、不要領域の周辺から不要領域へ画素を拡散および伝播させる不要領域の補完処理を実施する(S104)。また、不要領域が閾値以上の場合、不要領域の補完処理結果がボケるのを防ぐため、移流方程式とNS方程式を併用し拡散および伝播させる(S105)。
 しかしながら、前記従来の構成では、拡散方程式や移流体方程式等を用いて繰り返し計算を行い、時間伝播させるため計算量が多いという課題を有している。また、NS方程式ベースでは不要領域の面積が一定以上大きい場合、不要領域の補完処理結果が周辺領域のテクスチャと異なり、ボケた結果になるという課題を有している。
 上記目的を達成するために、本発明の一態様に係る画像処理装置は、入力画像を取得する画像取得部と、前記入力画像の内で不要領域を示す情報である領域情報を取得する取得部と、(i)前記領域情報により示される前記不要領域の第一方向に隣接する第一領域において、前記不要領域の前記第一方向における第一の幅分の数の画素が前記第一方向に連続して並ぶ第一画素群を、前記不要領域の境界を基準として前記第一方向の反対方向に折り返して配置する第一処理を前記第一方向に直交する方向に繰り返して行うことにより第一折り返し画像を生成し、(ii)前記不要領域の第二方向に隣接する第二領域において、前記不要領域の前記第二方向における第二の幅分の数の画素が前記第二方向に連続して並ぶ第二画素群を、前記不要領域の境界を基準として前記第二方向の反対方向に折り返して配置する第二処理を前記第二方向に直交する方向に繰り返して行うことにより第二折り返し画像を生成する、画像生成部と、前記画像生成部により生成された、前記第一折り返し画像と、前記第二折り返し画像との合成により、合成画像を生成する画像合成部と、を備える。
 これによれば、不要領域の第一方向側の第一領域に第一画素群がある場合、および、不要領域の第二方向側の第二領域に第二画素群がある場合、第一折り返し画像および第二折り返し画像を不要領域の境界から折り返すことにより生成している。このため、高速に、かつ、不要領域周辺のテクスチャの周波数と同等の成分を含む自然な画像で不要領域を補完することができる。
 また、前記画像生成部は、前記第一領域において前記第一方向に連続して並ぶ画素の数が、前記第一の幅分の数よりも少ないと判定した場合に、当該第一領域の前記第一方向に連続して並ぶ画素群を取得して、当該画素群を前記第一方向の反対方向に前記第一の幅分を繰り返し折り返して配置する処理を前記第一処理として前記第一方向に直交する方向に繰り返して行うことにより前記第一折り返し画像を生成し、前記第二領域において前記第一方向に連続して並ぶ画素の数が、前記第二の幅分の数よりも少ないと判定した場合に、当該第二領域の前記第二方向に連続して並ぶ画素群を取得して、当該画素群を前記第二方向の反対方向に前記第二の幅分を繰り返し折り返して配置する処理を前記第二処理として前記第二方向に直交する方向に繰り返して行うことにより前記第二折り返し画像を生成してもよい。
 このため、不要領域の周辺の画素が少ない場合であっても、高速に、かつ、不要領域周辺のテクスチャの周波数と同等の成分を含む自然な画像で不要領域を補完することができる。
 また、さらに、禁止領域を設定する領域設定部を備え、前記画像生成部は、(i)前記禁止領域が前記不要領域よりも前記第一方向側にある場合には、前記第一領域から前記禁止領域を除く領域において前記第一処理を前記第一方向に直交する方向に繰り返して行うことにより、前記第一折り返し画像を生成し、(ii)前記禁止領域が前記不要領域よりも前記第二方向側にある場合には、前記第二領域から前記禁止領域を除く領域において前記第二処理を前記第二方向に直交する方向に繰り返して行うことにより、前記第二折り返し画像を生成してもよい。
 これによれば、領域設定部により設定された禁止領域を除いて、第一画素または第二画素を取得することにより第一折り返し画像または第二折り返し画像を生成する。このため、不要領域周辺のテクスチャと明らかに異なるテクスチャを用いて第一折り返し画像または第二折り返し画像を生成することを防ぐことができる。これにより、不要領域周辺のテクスチャの周波数と同等の成分を含む自然な画像で不要領域を補完することができる。
 また、さらに、探索領域を設定する領域設定部を備え、前記画像生成部は、(i)前記探索領域において前記第一処理を前記第一方向に直交する方向に繰り返して行うことにより、前記第一折り返し画像を生成し、(ii)前記探索領域を除く領域において前記第二処理を前記第二方向に直交する方向に繰り返して行うことにより、前記第二折り返し画像を生成してもよい。
 これによれば、領域設定部により設定された探索領域について、第一画素または第二画素を取得することにより第一折り返し画像または第二折り返し画像を生成する。このため、探索領域が不要領域周辺のテクスチャと類似するテクスチャに設定されれば、類似するテクスチャを用いて第一折り返し画像または第二折り返し画像を生成することができる。これにより、不要領域周辺のテクスチャの周波数と同等の成分を含む自然な画像で不要領域を補完することができる。
 また、前記第一方向は水平方向上で前記不要領域の境界から左側の方向であり、前記第二方向は水平方向上で前記不要領域の境界から右側の方向であってもよい。
 これによれば、一般的な画像では背景領域のテクスチャに水平成分が多いため、水平方向で折り返すことで自然な補完ができる。
 また、前記画像生成部はさらに、(i)垂直方向で前記不要領域の上側の方向である第三方向に隣接する第三領域において、前記不要領域の前記第三方向における第三の幅分の数の画素が前記第三方向に連続して並ぶ第三画素群を、前記不要領域の境界を基準として前記第三方向の反対方向に折り返して配置する第三処理を前記第三方向に直交する方向に繰り返して行うことにより第三折り返し画像を生成し、(ii)垂直方向で前記不要領域の下側の方向である第四方向に隣接する第四領域において、前記不要領域の前記第四方向における第四の幅分の数の画素が前記第四方向に連続して並ぶ第四画素群を、前記不要領域の境界を基準として前記第四方向の反対方向に折り返して配置する第四処理を前記第四方向に直交する方向に繰り返して行うことにより第四折り返し画像を生成し、前記画像合成部は、前記画像生成部により生成された、前記第一折り返し画像と、前記第二折り返し画像と、前記第三折り返し画像と、第四折り返し画像との合成により、合成画像を生成してもよい。
 これによれば、一般的な画像に多く含まれる垂直画像のテクスチャも折り返すことで、より自然な合成画像が生成できる。
 また、前記画像合成部は、前記第一折り返し画像における複数の画素のそれぞれの画素値に対して設定された第一の重みを、当該画素値に掛け合わせ、前記第二折り返し画像における複数の画素のそれぞれの画素値に対して設定された第二の重みを、当該画素値に掛け合わせ、前記第一の重みの掛け合わされた後の前記第一折り返し画像の複数の画素値のそれぞれと、前記第二の重みの掛け合わされた後の前記第二折り返し画像の複数の画素値のそれぞれとを足し合わせることで前記合成を行ってもよい。具体的には、前記画像合成部は、前記不要領域の境界から近い画素ほど重みが大きくなるように前記第一の重みおよび第二の重みを設定してもよい。また、前記画像合成部は、前記不要領域を構成する複数の画素のそれぞれについて、当該画素に対応する位置にある前記第一折り返し画像の画素値に掛け合わされる前記第一の重みと、および当該画素に対応する位置にある前記第二折り返し画像の画素値に掛け合わされる前記第二の重みとの加算値が1になるように、前記第一の重みと前記第二の重みとを設定してもよい。
 これらにより、複数の方向から画素を折り返すことにより折り返し画像を合成する際に、より自然な画像を生成できる。
 また、さらに、前記不要領域の周辺領域のテクスチャを解析することで、前記第一方向および前記第二方向を決定するテクスチャ解析部を備えてもよい。具体的には、前記テクスチャ解析部は、前記入力画像のエッジ画像から求めたエッジ強度およびエッジ角度から、最頻度の直線を検出し、前記第一の方向および前記第二方向を、検出した前記最頻度の直線上の両方向に決定してもよい。また、前記テクスチャ解析部は、前記入力画像のエッジ画像から求めた画素ごともしくは領域ごとのエッジの角度から、頻度の高い角度を検出し、前記第一方向および前記第二方向を、検出した前記頻度の高い角度に対して垂直な方向に決定してもよい。
 これによれば、多くの場合、ユーザの撮影した画像は完全に水平に撮像出来ておらず、傾いた画像となる。よって、背景領域における水平成分も傾いて表示されていることが多い。以上の構成のようにテクスチャ解析部を設けることにより、画像の傾き角を検出し、折り返しの方向に反映させることができるため、より自然な合成画像が生成できる。
 また、さらに、前記入力画像のうち前記不要領域の周辺の領域を、同一もしくは類似の特徴を有する画素の集合である複数の領域に分割する領域分割部を備え、前記画像生成部は、前記複数の領域のそれぞれについて、前記不要領域の当該領域で設定される所定方向における幅分の数の画素が前記所定方向に連続して並ぶ画素群を、前記不要領域の境界を基準として前記所定方向の反対方向に折り返して配置する処理を前記所定方向に直交する方向に繰り返して行うことにより分割折り返し画像を生成してもよい。
 これによれば、周辺領域の特徴によって領域分割することで、その分割された領域ごとに折り返しの方向を決定する。このため、背景のテクスチャに合わせてより自然な合成画像が生成できる。
 また、さらに、前記画像合成部の結果を表示する画像表示部を備えてもよい。
 また、ユーザによるタッチ入力が可能な表示部を備える画像処理装置であって、前記表示部に表示されている入力画像内においてタッチ入力されることにより特定された領域を前記入力画像における不要領域として検出する第一検出部と、前記不要領域が前記第一検出部により検出された後、再びタッチ入力を検出し、検出した前記タッチ入力による検出位置が所定値以上の移動である場合に、当該移動の方向を第一方向として検出する第二検出部と、前記不要領域の前記第一方向に隣接する第一領域に、前記不要領域の前記第一方向の幅分の数の画素が前記第一方向に連続して並ぶ第一画素群を、前記不要領域の境界を基準として前記第一方向の反対方向に折り返して配置する第一処理を前記第一方向に直交する方向に繰り返して行うことにより第一折り返し画像を生成する画像生成部と、前記入力画像と、前記第一折り返し画像とを合成することにより、合成画像を生成する画像合成部と、前記合成画像を表示する前記表示部と、を備える画像処理装置としてもよい。
 これによれば、ユーザにより決定されたタッチ入力により設定された不要領域および方向に基づいて、不要領域に対する画像処理を行う。このため、ユーザは、自分の所望の条件で画像処理を行わせることができる。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 以下、本発明の一態様に係る画像処理装置および画像処理方法について、図面を参照しながら具体的に説明する。
 なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 (実施の形態1)
 図1は、本発明の実施の形態1における画像処理装置の構成図である。図1において、本発明の画像処理装置100は、画像取得部101、マスク画像取得部102、画像生成部110、および画像合成部105、により構成される。画像生成部110は、第一画像生成部103および第二画像生成部104を含む。また、本発明の実施の形態1における画像処理装置100は図1に示すように画像表示部106を備えていてもよい。
 すなわち本実施の形態における画像処理装置は、入力画像を取得する画像取得部と、前記入力画像の内で不要領域を示す情報である領域情報を取得する取得部と、(i)前記領域情報により示される前記不要領域の第一方向に隣接する第一領域において、前記不要領域の前記第一方向における第一の幅分の数の画素が前記第一方向に連続して並ぶ第一画素群を、前記不要領域の境界を基準として前記第一方向の反対方向に折り返して配置する第一処理を前記第一方向に直交する方向に繰り返して行うことにより第一折り返し画像を生成し、(ii)前記不要領域の第二方向に隣接する第二領域において、前記不要領域の前記第二方向における第二の幅分の数の画素が前記第二方向に連続して並ぶ第二画素群を、前記不要領域の境界を基準として前記第二方向の反対方向に折り返して配置する第二処理を前記第二方向に直交する方向に繰り返して行うことにより第二折り返し画像を生成する、画像生成部と、前記画像生成部により生成された、前記第一折り返し画像と、前記第二折り返し画像との合成により、合成画像を生成する画像合成部と、を備える。
 以下、本実施の形態における各構成の説明をする。
 画像取得部101は、デジタルカメラやデジタルビデオカメラで撮影した静止画や動画等の入力画像を取得する。画像取得部101は、取得した入力画像をマスク画像取得部102へ送る。
 マスク画像取得部102は、画像取得部101から送られる入力画像と、例えばユーザからタッチパネル等のUIで指定された不要領域を表現するマスク画像とを取得する取得部である。マスク画像取得部102は、取得した入力画像およびマスク画像を第一画像生成部103および第二画像生成部104へ送る。マスク画像は、例えば不要領域であれば255、それ以外は0の輝度値を割り当てた画像(例えば二値化画像)等である。なお、マスク画像取得部102は、不要領域を示す領域情報を取得すれば、マスク画像を取得することに限定しない。つまり、マスク画像は、領域情報に含まれる。また、不要領域の特定方法は様々な方法が考えられるがその方法を限定しない。例えば上述のようにタッチパネル等のUIによってユーザが指定した領域を不要領域とする場合には、ユーザが画面上の一定領域の境界をなぞるようにタッチすることにより不要領域を指定してもよい。また、予め複数の領域に分割された画像に対して、ユーザが一点のみをタッチし、タッチされた点を含む領域を不要領域としてもよい。また、ユーザが指定することに限らずに、予め定められた一定の基準によって不要領域を自動的に検出するアルゴリズムを設けてもよい。例えば画像処理または画像認識により顔検出や上半身検出を行い、顔や人単位で予め不要領域の候補を検出してもよい。同様に、画像処理等で動き検出を行い、移動物体を不要領域の候補として検出してもよく、さらにMeanShift法等の領域分割で色の近い塊単位を不要領域の候補としてもよい。
 第一画像生成部103は、マスク画像取得部102から入力画像およびマスク画像を取得し、マスク画像が示す不要領域の境界(以下、「折り返し境界」という)から第一方向へ画素を探索し、折り返し境界を境に探索した画素を折り返して配置することにより第一折り返し画像を生成する。第一画像生成部103は、不要領域内の画素を補完する第一折り返し画像を生成した後、画像合成部105へ送る。第一画像生成部103における折り返し境界(以下、「第一折り返し境界」という)は、不要領域を第一方向へ探査する事で求める事ができる境界である。つまり、第一画像生成部103は、マスク画像により示される不要領域の第一方向に隣接する第一領域(以下、「第一探索領域」という)において、不要領域の第一方向における第一の幅(以下、「第一探索幅」という)分の数の画素が第一方向に連続して並ぶ第一画素群を、第一折り返し境界を基準として第一方向の反対方向に折り返して配置する第一処理を第一方向に直交する方向に繰り返し行うことにより第一折り返し画像を生成する。より具体的には、第一画像生成部103は、不要領域の第一方向に隣接する第一方向に一列に連続している第一画素群を取得して、第一画素群の第一折り返し境界に近い画素ほど不要領域の境界に近くなるように不要領域に対して第一方向に配置する。
 第二画像生成部104は、マスク画像取得部102から入力画像およびマスク画像を取得し、マスク画像が示す不要領域の折り返し境界から第一方向とは異なる第二方向へ画素を探索し、折り返し境界を境に探索した画素を折り返して配置することにより第二折り返し画像を生成する。第二画像生成部104は、不要領域内の画素を補完する第二折り返し画像を生成した後、画像合成部105へ送る。第二画像生成部104における折り返し境界(以下、「第二折り返し境界」という)は、不要領域を第二方向へ探査する事で求める事ができる境界である。つまり、第二画像生成部104は、不要領域の第二方向に隣接する第二領域(以下、「第二探索領域」という)において、不要領域の第二方向における第二の幅(以下、「第二探索幅」という)分の数の画素が第二方向に連続して並ぶ第二画素群を、第二折り返し境界を基準として第二方向の反対方向に折り返して配置する第二処理を第二方向に直交する方向に繰り返し行うことにより第二折り返し画像を生成する。より具体的には、第二画像生成部104は、不要領域の第二方向に隣接する第二方向に一列に連続している第二画素群を取得して、第二画素群の第二折り返し境界に近い画素ほど不要領域の境界に近くなるように不要領域に対して第二方向に配置する。
 画像合成部105は、第一画像生成部103および第二画像生成部104から、第一折り返し画像および第二折り返し画像と入力画像とマスク画像とを取得する。画像合成部105は、第一折り返し画像および第二折り返し画像の折り返しの基準となる折り返し境界からの距離に応じて、第一折り返し画像および第二折り返し画像の各画素を重み付けて重ねる合成により、合成画像を生成する。これにより、画像合成部105は、取得した入力画像の不要領域が補完された合成画像を画像表示部106へ送る。
 画像表示部106は、画像合成部105から送られる不要領域を補完した後の画像合成結果を液晶ディスプレイ等に表示する。上述したように、画像表示部106は本実施の形態における画像処理装置が備えていてもよいし、表示部を備えない画像処理装置の場合には、外部の表示部に出力するようにしてもよい。
 次に図2、および図3を用いて本実施の形態の画像生成装置における合成画像を生成する方法を示したフローを説明する。
 まずステップS11において画像取得部101は入力画像を取得する。
 次にステップS12において、マスク画像取得部102はマスク画像を取得する。マスク画像の取得方法は上述した通りである。
 次にステップS13aおよびステップS93bにて、第一画像生成部103および第二画像生成部104は、第一方向における第一折り返し画像および第二方向における第二折り返し画像をそれぞれ生成する。本実施の形態における第一方向および第二方向は、予め設定されているものであり、以下の説明では第一方向を水平方向上で不要領域の境界から左側の方向とし、第二方向を水平方向上で不要領域の境界から右側の方向としている。ただし第一方向および第二方向はこれに限るものではない。ステップS13aおよびステップS13bでは、第一方向および第二方向を基に、マスク画像が示す不要領域における各画素に対して折り返すための折り返し境界を設定し、設定した折り返し境界を基準に折り返す対象となる各画素を折り返す。ここで「各画素を折り返す」と表現したが、折り返す対象となる画素は、各画素における輝度値やRGBの値である。また、以下で説明する処理において、画素に対して行っている処理は、実際には、各画素における輝度値やRGBの値(つまり画素値)に対して行われている。
 次にステップS14aおよびステップS14bにて、画像合成部105は折り返した各画素に、重みを掛け合わせる。本発明では、単一の方向ではなく複数の方向から対象画素を不要領域に対して折り返し、折り返された複数の方向からの各画素を合成し合成画像を生成する。このため、マスク画像における不要領域内の各画素に一旦複数の画素値(つまり、複数の方向からの画素値)が当てはめられる。よって当てはめられた複数の画素値をそれぞれどの程度、反映させて、不要領域内の各画素に対して各合成画素を生成するかに際し、重み付けが必要となる。重み付けの値に関して、詳しくは後述する。
 次にステップS15にて、画像合成部105はステップS14aおよびステップS14bにて重みを掛け合わせた後の第一折り返し画像と第二折り返し画像を合成し、合成画像を生成する。
 以下、図3を用いて、ステップS13a、S13b、S14a、S14b、およびS15における具体的な処理の例を記載する。
 図3には、入力画像210、第一方向における第一折り返し境界211、第一折り返し画像212、第一方向213、第一折り返し画像の重み係数220、重み係数と第一折り返し画像を掛けた画像230、第二方向における第二折り返し境界241、第二折り返し画像242、第二方向243、第二折り返し画像の重み係数250、重み係数と第二折り返し画像とを掛けた画像260、および第一折り返し画像と第二折り返し画像とを合成した合成画像270とを示す。以下、具体的な処理の説明をする。
 まず折り返し画像の生成についての具体的な処理について説明する(ステップS13a、S13b)。
 第一画像生成部103は、第一折り返し画像212を生成するために、第一方向213(水平方向における左)に基づいて、各画素を折り返す基準の境界である第一折り返し境界211を探索する。つまり、第一画像生成部103は、不要領域と第一探索領域との境界を特定することにより、第一折り返し境界211を探索する。そして、第一画像生成部103は、第一折り返し境界211から第一方向213である左方向へ入力画像210内の画素を探索し、第一折り返し境界211を境に不要領域へ画素を折り返し、第一折り返し画像212を生成する。同様に、第二折り返し画像242を生成するために、第二画像生成部104は、第二方向243(水平方向における右)に基づいて、各画素を折り返す基準の境界である第二折り返し境界241を探索する。つまり、第二画像生成部104は、不要領域と不要領域の第一方向側の第二領域(以下、「第二探索領域」という)との境界を特定することにより、第二折り返し境界241を探索する。第二画像生成部104は、第二折り返し境界241から第二方向243である右方向へ入力画像210内の画素を探索し、第二折り返し境界241を境に不要領域へ画素を折り返し、第二折り返し画像242を生成する。
 次に、各折り返し画像212、242に対して重みを掛け合わせる処理について説明する(ステップS14a、S14b)。
 画像合成部105は、第一折り返し境界211から近い距離ほど重みが大きくなるように、第一折り返し画像212の複数の画素毎に重み係数220を計算し、第一折り返し画像212の複数の画素毎に、算出した複数の重み係数220を掛けることにより画像230を生成する。画像合成部105は、同様に第二折り返し境界241から近い距離ほど重みが大きくなるように、第二折り返し画像242の複数の画素毎に重み係数250を計算し、第二折り返し画像242の複数の画素毎に、算出した重み係数250を掛けることにより画像260を生成する。
 この際の重み係数は任意の方法により設定される。図3の例では、ある画素201に対して、第一重み係数は0.84、第二重み係数は0.16と設定されており、第一重み係数と第二重み係数とを足し合わせると1となる。このように複数の方向の重みを足し合わせると1になることを条件として設定することが好ましい。つまり、画像合成部105は、不要領域を構成する複数の画素のそれぞれについて、当該画素に対応する位置にある第一折り返し画像の画素に掛け合わされた第一重み係数と、当該画素に対応する位置にある第二折り返し画像の画素に掛け合わされた第二重み係数との加算値が1になるように、第一重み係数と第二重み係数とを設定してもよい。また、折り返し境界から近い距離ほど重みを大きくなるよう各重み係数を設定することには、例えば図10のテーブルのようなものを用いて重みを算出しても良い。図10の(a)は、折り返し境界からの距離に応じて、不要領域の中で最も近い画素の重み係数を1.0、不要領域の中で最も遠い画素の重み係数を0として設定された、第一方向における重み係数算出用のテーブルを示す。図10の(b)は、不要領域の画素数が11の時に、(a)のテーブルを用いて各画素に第一の方向における重み係数を算出した結果を割り当てたものを示す図である。図10の(c)および図10の(d)は同様に第二方向における重み算出テーブルと、不要領域の画素数が11の時に、各画素に重み係数を割り当てたものを示す図である。このように折り返し境界から近い距離ほど重みが大きくなるように、なおかつ複数の方向の重みを足し合わせると1になるように設定すれば、複数の方向からの画素を精度よく折り返し画像に反映できる。なお、第一のテーブルだけ設けていれば、第二のテーブルを設けていなくてもよい。すなわちその場合は第一のテーブルによって算出された重み係数に基づき足して1になるような第二方向の重みを算出すればよい。また、図10で表されるような一次関数(直線)で表されるテーブルのみならず、二次関数(曲線)などで表されるようなテーブルを設けてもよい。つまり、当該テーブルは、折り返し境界に最も近い画素の重み係数を1.0とし、不要領域の中で最も遠い画素の重み係数を0として設定された単調減少の関数であれば関数の形状は限定されない。
 そして以上の方法によって算出された重みを、各折り返し画像における各画素値に掛けていく。図3では、画素201においては、第一方向に関しては1×0.84=0.84の値が、第二方向に関しては4×0.16=0.64の値が割り当てられる。
 最後に、重みを掛け合わせた複数の画像を足し合わせる処理について説明する(ステップS15)。
 図3の例のように、画像230と画像260とを足し合わせ、不要領域を補完した合成画像270を生成する。ある画素201は、第一画像からの算出値0.84と第二画像からの算出値0.64を足し合わせて、1.48という合成値が得られていることがわかる。
 なお、第一折り返し画像および第二折り返し画像の不要領域以外の画素に対する各重み係数は、0.5に設定される。
 次に、図5を用いて、S13a、S13bにおける画像生成部110の折り返し画像の生成処理の処理手順をさらに詳しく説明する。図5において、実施の形態1では第一方向および第二方向が水平方向のため、折り返し画像の生成処理は行単位での処理に分解できる。
 まず、処理が開始されると、ステップS21では、画像生成部110は、計算対象の入力画像の行を最初の行にセットし、ステップS22へ移動する。
 ステップS22では、画像生成部110は、不要領域を含む行の未処理行が存在するか判定し、未処理行が存在する場合(S22:Yes)は、ステップS23へ、未処理行が存在しない場合(S22:No)は折返し画像の生成処理が完了したので当該生成処理を終了する。
 ステップS23では、画像生成部110は、計算対象の行に不要領域が含まれるか判定し、不要領域が含まれない場合(S23:No)はステップS27へ、不要領域が含まれる場合(S23:Yes)は、S24へ移動する。
 ステップS24では、画像生成部110は、折り返し方向(つまり、第一方向または第二方向)に応じた不要領域内の折り返し境界を特定し、ステップS25へ移動する。
 ステップS25では、画像生成部110は、ステップS24で特定した折り返し境界からの折り返す幅を決定する基準となる不要領域の探索幅(つまり、当該行における不要領域の幅)を計算し、ステップS26へ移動する。なお、ここでいう「不要領域の探索幅」とは、第一折り返し画像を生成する処理の場合には、第一探索幅であり、第二折り返し画像を生成する処理の場合には、第二探索幅である。
 ステップS26では、画像生成部110は、折り返し境界から不要領域の探索幅分、指定された折り返し方向へ画素を探索し、折り返し境界を境に探索した探索幅分の画素を折り返して折り返し画像を一行分生成し、ステップS27へ移動する。
 ステップS27では、計算対象の行を+1し、ステップS22へ移動する。つまり、ステップS27では、ステップS26までの処理の対象である行の次の行を計算対象とする処理が行われる。なお、次の行がない場合には、生成処理を終了してもよい。
 図6は、本発明における画像処理装置100として、画像表示部106付きの撮像装置、携帯端末等に採用されたUI表示の一例を示した図である。まず入力画像301に対してユーザが不要領域をタッチまたは画面をなぞる動作によって指定する。するとマスク画像302が生成され、決定された不要領域が表示される。そして決定等を示す入力が行われた場合もしくは一定時間が経過した場合に、合成画像303が表示される。この際、マスク画像302は必ずしも図6のようなものでなくてもよく、原画像に不要領域を視覚的に分かり易く表示させたものであってもよい。つまり、不要領域の輪郭を枠で囲って表示させてもよいし、不要領域を構成する複数の画素の全てを、不要領域を示す同一の画素(例えば黒)で埋めることにより表示させてもよい。また必ずしもマスク画像302のようにマスク領域を表示する必要はなく、ユーザが不要領域を指定した直後に合成画像が表示されてもよい。また、図6に示すものはあくまで一例であり、その他ユーザに不要領域除去のための操作方法の手順を案内するようなUI表示を採用してもよい。
 以上のように、本実施の形態における画像処理装置100では、第一方向および第二方向である水平方向の左右方向のそれぞれから、不要領域の折り返し境界に沿って折り返して画像生成し合成することで、より精度の高い合成画像の生成を実現している。画像処理装置100は、単一の方向のみから補完するのではなく、複数の方向から不要領域を補完するための折り返し画像を複数生成することで、様々なシーンに対応できる自然な補完処理が可能である。また、合成画像を生成する際に、第一方向および第二方向における画素に重み係数を掛けてから、それぞれを足し合わせる合成を行っているので、従来の方法のように足し合わせた結果の合成画像におけるボケが発生することなく、より自然な不要領域の補完処理が実現可能となっている。
 なお、本実施の形態において、第一方向および第二方向を水平方向の左右方向のそれぞれとしたが、他の方向であってもよい。つまり、例えば、第一方向が垂直方向の上方向であって、第二方向が垂直方向の下方向であってもよい。また、第一方向および第二方向が同じ直線上に並ばなくても良い。その際、本実施の形態における画像処理装置は、方向決定部を新たに有していてもよい。また処理フローには、ステップS12の後に、方向決定部が方向を決定し、決定された方向にしたがって折り返すための境界を設定するステップが新たに加えられてもよい。
 また、本実施の形態1では、通常写真撮影する際、水平ラインをそろえて撮影し、カメラに映る建物等がほぼ水平ライン上に沿って垂直に配置されているのを想定している。そのため、第一方向および第二方向を水平方向と割り当てているが、例えばデジタルコンパス等を用いてカメラの傾きを検出し、第一方向および第二方向を割り当ててもよい。
 また、ユーザがタッチパネル上で不要領域をなぞる動作等で指定したあと、画像を見てユーザが判断した所望の方向へすばやく指を移動させるフリック操作等を行うことにより折り返し方向を割り当ててもよく、例えばフリック操作で指定された方向を第一方向に、第一方向の180度反対方向を第二方向としてもよい。これにより、ユーザは所望の不要領域の補完方法を選択できるため、ユーザの意思が反映された補完結果が得られる。このように、ユーザの意思がより反映された合成画像が作成できるため、本実施の形態1のように複数の方向から折り返し画像を生成するのではなく、一方向のみから折り返し画像を生成する画像処理装置として実現してもよい。すなわち、ユーザによるタッチ入力が可能な表示部を備える画像処理装置であって、前記表示部に表示されている入力画像内においてタッチ入力されることにより特定された領域を前記入力画像における不要領域として検出する第一検出部と、前記不要領域が前記第一検出部により検出された後、再びタッチ入力を検出し、検出した前記タッチ入力による検出位置が所定値以上の移動である場合に、当該移動の方向を第一方向として検出する第二検出部と、前記不要領域の前記第一方向に隣接する第一領域に、前記不要領域の前記第一方向の幅分の数の画素が前記第一方向に連続して並ぶ第一画素群を、前記不要領域の境界を基準として前記第一方向の反対方向に折り返して配置する第一処理を前記第一方向に直交する方向に繰り返して行うことにより第一折り返し画像を生成する画像生成部と、前記入力画像と、前記第一折り返し画像とを合成することにより、合成画像を生成する画像合成部と、前記合成画像を表示する前記表示部と、を備える画像処理装置として実現しもよい。また、この場合、さらに、前記第一検出部および前記第二検出部による検出とは異なるタイミングで、前記表示部に表示されている入力画像内においてタッチ入力されることにより特定された領域を前記入力画像における禁止領域として検出する第三検出部を備え、前記画像生成部は、前記禁止領域が前記不要領域よりも前記第一方向側にある場合には、前記第一領域から前記禁止領域を除く領域において前記第一処理を前記第一方向に直交する方向に繰り返して実行することにより、前記第一折り返し画像を生成してもよいし、さらに、前記第一検出部および前記第二検出部による検出とは異なるタイミングで、前記表示部に表示されている入力画像内においてタッチ入力されることにより特定された領域を前記入力画像における探索領域として検出する第四検出部を備え、前記画像生成部は、前記探索領域内の領域において前記第一処理を前記第一方向に直交する方向に繰り返して実行することにより、前記第一折り返し画像を生成してもよい。図7はこの際の動作におけるUI表示を示したものである。
 また、ユーザがタッチパネル上で、不要領域指定後に、折り返し画像を探索するための探索領域を指定してもよい。例えば、入力画面上に、不要領域を指定する第一の矩形と、折り返し画像を生成するための探索領域を表現する第二の矩形を表示し、ユーザが矩形の四隅を調整して不要領域を示す第一の矩形と探索領域を示す第二の矩形とを指示してもよい。図8はこの際の動作におけるUI表示を示したものである。
 これにより、ユーザは所望の不要領域と、不要領域を補完するための所望の探索領域を指定する事が可能になる。なお、この際にも、画像処理装置100は、折り返すための第一方向および第二方向の決定を、フリック操作でユーザにより指定された方向を用いて行ってもよい。
 また、同様に、不要領域を囲む外接矩形の対角上の点2点を、ユーザによりタッチパネル上で指定された2点を対角の点とする外形矩形の領域を不要領域または探索領域として決定してもよく、当該不要領域または当該探索領域をピンチ操作等で大きさや重心位置を調整することにより決定してもよい。
 なお、本実施の形態1において、折り返し境界から不要領域の探索幅の分だけ探索領域から取得した画素を一回折り返して配置する処理を行うことにより折り返し画像を生成しているが、これに限定されない。例えば、不要領域の探索幅が大きい場合は、折り返し画像を生成するための探索領域が広くなり、本来不要領域周辺の背景画像を折り返し補完するはずが、人物等の前景画像を含んで折り返す事になり、不自然な折り返し結果が発生する恐れがある。このため、探索幅に閾値を設け、探索幅が閾値以上である場合は、二回折り返し、三回折り返し等にしてもよい。また、当該閾値は、予め定められた固定値であってもよいし、第一探索領域の幅または第二探索領域の幅としてもよい。なお、後者の場合には、第一探索幅と第一探索領域の第一方向における幅とを比較し、第二探索幅と第二探索領域の第二方向における幅とを比較する。そして、画像生成部は、第一探索領域において第一方向に連続して並ぶ画素の数が、第一探索幅分の数よりも少ないと判定した場合に、当該第一領域の第一方向に連続して並ぶ画素群を取得して、当該画素群を第一方向の反対方向に第一探索幅分を繰り返し折り返して配置する処理を第一処理として第一方向に直交する方向に繰り返して行うことにより第一折り返し画像を生成してもよい。また、画像生成部は、第二探索領域において第一方向に連続して並ぶ画素の数が、第二の幅分の数よりも少ないと判定した場合に、当該第二領域の第二方向に連続して並ぶ画素群を取得して、当該画素群を第二方向の反対方向に第二の幅分を繰り返し折り返して配置する処理を第二処理として第二方向に直交する方向に繰り返して行うことにより第二折り返し画像を生成してもよい。なお、ここでいう「繰り返し折り返して配置する処理」とは、例えば第一方向に連続して複数の画素が並ぶ画素群の場合には、第一折り返し境界を基準にして第一方向とは反対方向に当該画素群を折り返して配置し、その後に、既に折り返して配置した画素群の当該反対方向の端部の画素を基準にして当該画素群を再度当該反対方向に折り返して配置する処理である。つまり、取得できた画素群の第一方向における幅が第一探索幅に満たない場合には複数回「繰り返し折り返して配置する処理」を、第一探索幅を満たすまで行うことにより、第一探索幅の第一折り返し画像を生成できる。また、当該「繰り返し折り返して配置する処理」は、上述しているように、第二方向に対しても同様に行われる。
 また、探索幅に閾値を設ける際には、折り返し境界からの色や輝度差、エッジ強度の変化量等を考慮してもよい。これは、不要領域周辺の背景画像の確からしさを、折り返し境界からの距離と、色や輝度差およびエッジ強度で評価し、不自然な折り返しの原因である前景画像を折り返しの対象としないための方法である。例えば図9の(a)のように、不要領域である人物Bの近隣に、背景以外の領域である人物Aが存在する時、人物Aを考慮せずに折り返し画像を生成した場合、折り返す画素の一部に人物Aの画素の一部がそのまま入り込んでしまう。よって、意図している合成画像が得られない。そこで、図9の(b)のように探索領域に閾値(つまり、予め定められた幅の領域)を設け閾値以内の領域を探索領域とし、当該探索領域の画素を複数回(例えば、二回、三回など)折り返すようにしてもよい。つまり、閾値以内の領域である探索領域の画素を取得して、取得した画素を繰り返し折り返して配置する処理を行ってもよい。また図9の(c)のように不要領域周辺の画素の確からしさを用いて折り返しに使う領域を設定してもよい。
 つまり、画像処理装置は、さらに、禁止領域を設定する領域設定部を備えていてもよい。この場合、画像生成部は、禁止領域が不要領域よりも第一方向側にある場合には、第一領域から禁止領域を除く領域から第一画素を取得することにより、第一折り返し画像を生成する。また、画像生成部は、禁止領域が不要領域よりも第二方向側にある場合には、第二領域から禁止領域を除く領域から第二画素を取得することにより、第二折り返し画像を生成する。なお、領域設定部は、ユーザによる入力に基づいて禁止領域を設定してもよいし、例えば背景画像の確からしさを用いた画像処理または画像認識の結果に基づいて禁止領域を設定してもよい。つまり、上述した不要領域を画像処理または画像認識で検出する方法を利用することにより禁止領域を設定してもよい。
 また、図10の(a)のように、不要領域が画像の端近くに存在する場合は、第一方向のみから補完するようにしてもよい。また、図10(b)のように仮想的に対称画像を作成して、折り返しに利用するための探索領域を仮想的に作成してもよい。つまり、入力画像を反転した画像を、入力画像の第二方向(右方向)に仮想的に配置して、折り返しに利用するための探索領域を拡大することで、折り返し画像を生成してもよい。
 なお、本実施の形態において、第一画像生成部と第二画像生成部との二つの処理部を用いているがこれに限定されない。例えば、不要領域の境界の上方向である第三方向を基準とした折り返しを行うことで第三折り返し画像を生成する第三画像生成部と、不要領域の境界の下方向である第四方向を基準とした折り返しを行うことで第四折り返し画像を生成する第四画像生成部とを備え、画像合成部は、第一折り返し画像、第二折り返し画像、第三折り返し画像、および第四折り返し画像を合成してもよい。
 さらに、第五方向および第六方向として、右上斜め45度の直線上の両方向が設定され、不要領域の境界から右上方向(第五方向)および左下方向(第六方向)とする第五画像生成部および第六画像生成部を備えてもよい。また、さらに、第七方向および第八方向として、左上斜め45度の直線上の両方向が設定され、不要領域の境界から左上方向(第七方向)および右下方向(第八方向)とする第七画像生成部および第八画像生成部を備えてもよい。なお、この場合には、画像合成部は、第一から第八折り返し画像を合成してもよい。また、さらにn個の方向が設定され当該方向を基準とする画像生成部を備えてもよく、当該画像生成部により生成された折り返し画像を、合成画像の合成に利用してもよい。
 また、合成画像を合成する際の折り返し境界からの距離に応じた重みを計算する際、第一折り返し画像から第n折り返し画像までの各折り返し画像に対して均等に割り当ててもよく、逆に、不均一にしてもよい。例えば、画像合成部は、第一折り返し画像を生成する際、折り返しの参照元である探索領域内の輝度や色分布やエッジ強度やエッジ方向の分布が、他の第二から第n折り返し画像を生成するための探索領域内と大きく異なる傾向の場合、当該第一折り返し画像に対する重み計数を他の第二から第n折り返し画像に対する重み係数よりも重みを小さくするように設定してもよい。
 これは、本来不要領域の周辺の背景画像から補完するのを想定しているが、方向によっては、想定した背景画像ではなく、背景画像とは別の前景画像が探索領域を多数占める場合があり、この場合に、他の探索領域内の傾向と異なる結果が出る。そのため、各方向における探索領域内の傾向を計算した後、類似する傾向の探索領域からの補完した折り返し画像に対する画像合成の割合を強める事で、意図しない画像からの不要領域の補完を極力小さくする狙いがある。
 また、ユーザ等がタッチパネル上で不要領域を指定したり、画像処理で不要領域の候補を自動検出したりした際、本来消したい領域の一部が不要領域として指定されず、不要領域として指定された領域の境界外に本来消したい領域の一部が存在する場合もある。この時、折り返し画像を生成すると、本来削除したい領域の一部が、折返し画像に含まれることになり、結果的に2倍の面積で強調された合成画像が生成されるという課題が生じる。
 そこで、例えばマスク画像取得後、画像処理の膨張処理を実施し、不要領域の境界を任意画素分膨張させる。つまり、不要領域として指定された領域よりも膨張した分だけ大きい領域が不要領域として特定されるため、これにより本来消したい領域が多少残っていても対応する事が可能である。また、他の対策として、マスク画像と入力画像とを画像処理し、マスク画像の不要領域の境界(エッジ)を、入力画像のエッジと一致させるようにマスク画像を膨張させることにより、対応する事も可能である。
 また、上記の説明では、第一折り返し画像および第二折り返し画像は、入力画像と同じサイズの画像で生成される。つまり、第一折り返し画像および第二折り返し画像は、入力画像の不要領域以外の領域の画素の画素値を維持したまま、不要領域を補完するための画像が生成された画像である。しかしながら、上記に限らずに、第一折り返し画像および第二折り返し画像は、不要領域と同じサイズの画像で生成されてもよい。つまり、不要領域を置き換えるための画像として生成されてもよい。この場合には、画像合成部は、第一折り返し画像および第二折り返し画像を合成することにより、不要領域を置換するための補完画像を生成する。そして、画像合成部は、入力画像の不要領域を補完画像で置換することにより、合成画像を合成することになる。
 (実施の形態2)
 図11は、本発明の実施の形態2の画像処理装置の構成図である。図11において、図1と同じ構成要素については同じ符号を用い、説明を省略する。
 図11において、本実施の形態の画像処理装置400は、画像取得部101、マスク画像取得部102、テクスチャ解析部401、画像生成部110、および画像合成部105により構成される。画像生成部110は、第一画像生成部103および第二画像生成部104を含む。また、本発明の実施の形態2における画像処理装置400は図11に示すように画像表示部106を備えていてもよい。
 実施の形態2における画像処理装置400は、不要領域の周辺領域のテクスチャを解析することで、第一方向および第二方向を決定するテクスチャ解析部401を備えることを特徴する。
 図12は本実施の形態における画像処理装置400において、合成画像を生成するフローである。ステップS11、ステップS12、ステップS13a、ステップS13b、ステップS14a、ステップS14b、およびステップS15は、実施の形態1の画像処理装置において合成画像を作成する際の処理と同一の処理であるので説明を省略する。
 ステップS31において、テクスチャ解析部401は第一方向および第二方向を決定する。
 図13は、テクスチャ解析によって第一方向および第二方向を決定する際に用いる、不要領域501の境界周辺領域の一例を示した図である。つまり、テクスチャ解析部401は、不要領域の周辺領域のテクスチャを解析することで、第一方向および第二方向を決定する。
 まず、テクスチャ解析部401は、不要領域501に外接する外接円502を計算し、外接円502における半径の3倍に相当する円を周辺領域円503として計算し、テクスチャ解析の対象範囲とする。
 そして、テクスチャ解析部401は、テクスチャ解析の対象範囲である周辺領域円503内において、取得した入力画像の一次微分であるエッジ画像を、Sobelフィルタ等を用いて生成する。テクスチャ解析部401は、エッジ画像から得られるエッジの方向を何段階かに分割したエッジ方向の頻度を表すヒストグラムへエッジ強度で重み付けしながら投票し、頻度の高い角度と直交する角度を、第一方向および第二方向として決定する。すなわち、テクスチャ解析部401は、入力画像のエッジ画像から求めた画素ごともしくは領域ごとのエッジの角度から、頻度の高い角度を検出し、第一方向および第二方向を、検出した頻度の高い角度に対して垂直な方向とする。例えば周辺境界領域内が理想的な横縞の場合、エッジ方向は縦方向を多く含むため、エッジ画像から得られる頻度の高い角度は縦方向に相当する。この時、縦方向と直交する横方向を折り返し方向に設定すれば、不要領域を綺麗に横縞で補完する事が可能となる。
 図14にはエッジ方向の頻度を表すヒストグラムの例を示す。図14の例の場合、最も頻度の高い角度は135度であるので、第一方向および第二方向は、それぞれの角度と直行する、225度の方向および45度の方向と決まる。
 次にステップS32において、テクスチャ解析部401は、決定した折り返しの方向である第一方向および第二方向を用いて折り返し境界を決定する。図15は、第一画像生成部103および第二画像生成部104によって折り返し画像を生成する一例を示した図である。図15の例では第一方向601および第二方向611をそれぞれ225度および45度と決定して、第一折り返し境界603および第二折り返し境界604を設定し、それぞれ対応画素を折り返している。この結果、図示されるように第一折り返し画像602および第二折り返し画像612が生成される。
 以降、実施の形態1と同様の処理を行うことにより、合成画像が生成される。
 以上の処理により本実施の形態2における画像処理装置400では、より不要領域の周辺領域におけるテクスチャに対応した、折り返し画像を生成できる。多くの場合、ユーザの撮影した画像は完全に水平に撮像出来ておらず、傾いた画像となる。よって、背景領域における水平成分も傾いて表示されていることが多い。本実施の形態における画像処理装置では、その傾き角を検出し、折り返しの方向に反映させているので、より自然な合成画像が生成できる。
 なお、テクスチャ解析部401は、入力画像のエッジ画像から求めたエッジ強度およびエッジ角度から、最頻度の直線を検出し、第一方向および第二方向を、検出した直線上の両方向としてもよい。
 なお、テクスチャ解析部401は、最も頻度の高い角度を第一方向に設定し、第一方向と180度反対の方向を第二方向として設定してもよい。
 さらに、テクスチャ解析部401は、二番目に頻度の高い角度と直交する角度を第三方向に設定し、第三方向と180度反対の方向を第四方向として設定してもよく、それぞれの方向に対する折り返し画像を用いて合成画像を合成してもよい。
 また、第一方向および第二方向を互いに180度正反対の方向に割り当てるのではなく、頻度の高い角度の順番に従って、第一方向、第二方向、第三方向、・・・と方向を割り当ててもよい。この時、画像合成時に使用する重み係数は、折り返し境界からの距離だけでなく、角度の頻度に応じて調整してもよい。
 これにより、複数の方向から周辺境界領域内のテクスチャ情報を考慮し折り返し画像の生成および画像合成する事が可能となり、より自然な不要領域の補完が実現できる。
 また、テクスチャ解析部は、ハフ変換等の画像処理等で画面全体または不要領域周辺における直線の傾きを検出し、検出した直線の傾きを第一方向および第二方向として設定してもよい。
 なお、テクスチャ解析部401は、周辺境界領域内を一つの領域として、エッジ方向の頻度を計算したが、複数の領域に分割し、複数の領域のそれぞれについてエッジ方向の頻度を計算してもよい。例えば、この場合のテクスチャ解析部は、図13の周辺領域円503を、90度単位で4分割し、分割された周辺領域円のそれぞれにおけるエッジ方向の最頻度の方向をそれぞれ第一方向、第二方向、第三方向および第四方向として決定する。そして、テクスチャ解析部により決定された第一から第四方向を基準として4つの折り返し画像を生成し、当該4つの折り返し画像を用いて均等に画像合成し、不要領域の補完を実施してもよい。また、この場合の画像合成部は、折り返し境界からの距離だけでなく、分割した境界周辺領域の重心からの距離等で重み係数を決定してもよい。
 図11において、第一画像生成部103は、テクスチャ解析部401から取得する第一方向とマスク画像と入力画像とから、第一折り返し境界を計算し、第一折り返し画像を生成する。また、同様に、第二画像生成部104は、テクスチャ解析部401から取得する第二方向とマスク画像と入力画像とから、第二折り返し境界を計算し、第二折り返し画像を生成する。
 (実施の形態3)
 図16は、本発明の実施の形態3の画像処理装置の構成図である。図16において、図1および図11と同じ構成要素については同じ符号を用い、説明を省略する。
 図16において、本実施の形態3の画像処理装置700は、画像取得部101、マスク画像取得部102、領域分割部701、画像生成部110、画像合成部105、および画像表示部106により構成される。画像生成部110は、第一画像生成部103および第二画像生成部104を含む。また、本発明の実施の形態3における画像処理装置700は図16に示すように画像表示部106を備えていてもよい。
 本実施の形態3における画像処理装置700は、さらに、入力画像のうち不要領域の周辺の領域を、同一もしくは類似の特徴を有する画素の集合である複数の領域に分割する領域分割部701を備える。
 図17は本実施の形態における画像処理装置において、合成画像を生成するフローである。ステップS11、ステップS12、ステップS31、ステップS32、ステップS13a、ステップS13b、ステップS14a、ステップS14b、およびステップS15は、実施の形態1のおよび実施の形態2の画像処理装置100、400において合成画像を作成する際の処理と同一の処理であるので説明を省略する。
 ステップS41において、領域分割部701は、境界周辺領域内の画像を領域分割する。
 そして、ステップS31~S13bにおいて、画像生成部110は、不要領域の当該領域で設定される所定方向における幅分の数の画素が所定方向に連続して並ぶ画素群を、不要領域の境界を基準として所定方向の反対方向に折り返して配置する処理を所定方向に直交する方向に繰り返し行うことにより分割折り返し画像を生成する。
 領域分割部701は、マスク画像取得部102より入力画像およびマスク画像を取得し、マスク画像の境界周辺領域を領域分割する。領域分割の方法は、例えばMeanShift法による領域分割や、K-means法による領域分割等、統計学上で利用されるクラスタ分類や画像処理で利用される領域分割法などを利用する事が可能である。
 図18は、領域分割結果の一例を示した図であり、不要領域801の周辺に、4つの領域で領域分割された境界周辺領域811~814が存在し、境界周辺領域811~814毎にテクスチャ解析部401が折り返し方向を計算し、4つの折り返し画像を画像合成部105が合成することで、不要領域の補完を実現する。
 ステップS41において領域分割された境界周辺領域811~814は、テクスチャ解析部401に送られ、境界周辺領域毎811~814にテクスチャ解析され、各方向および折り返し境界を境界周辺領域811~814ごとに決定する。
 以降の処理も境界周辺領域811~814ごとに実施の形態1および実施の形態2と同様の処理を行う。
 以上本実施の形態の画像処理装置によれば、周辺領域の特徴によって領域分割し、その分割された領域ごとに折り返しの方向を決定しているので、背景のテクスチャに合わせてより自然な合成画像が生成できる。
 なお、画像合成する際、各折り返し画像に掛ける重み係数は、折り返し境界からの距離だけでなく、領域分割した領域の中心または重心からの距離を考慮してもよい。
 (その他変形例)
 なお、本発明を上記実施の形態に基づいて説明してきたが、本発明は、上記の実施の形態に限定されないのはもちろんである。以下のような場合も本発明に含まれる。
 (1)上記の撮像装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、撮像装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
 (2)上記の撮像装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。
 (3)上記の撮像装置を構成する構成要素の一部または全部は、撮像装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。
 (4)本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
 また、本発明は、前記コンピュータプログラムまたは前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray Disc:登録商標)、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されている前記デジタル信号であるとしてもよい。
 また、本発明は、前記コンピュータプログラムまたは前記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
 また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしてもよい。
 また、前記プログラムまたは前記デジタル信号を前記記録媒体に記録して移送することにより、または前記プログラムまたは前記デジタル信号を、前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
 (5)上記実施の形態および上記変形例をそれぞれ組み合わせるとしてもよい。
 (6)なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の画像復号化装置などを実現するソフトウェアは、次のようなプログラムである。
 すなわち、このプログラムは、コンピュータに、入力画像を取得する画像取得ステップと、前記入力画像の内で不要領域を示す情報である領域情報を取得する取得ステップと、(i)前記領域情報により示される前記不要領域の第一方向に隣接する第一領域において、前記不要領域の前記第一方向における第一の幅分の数の画素が前記第一方向に連続して並ぶ第一画素群を、前記不要領域の境界を基準として前記第一方向の反対方向に折り返して配置する第一処理を前記第一方向に直交する方向に繰り返して行うことにより第一折り返し画像を生成し、(ii)前記不要領域の第二方向に隣接する第二領域において、前記不要領域の前記第二方向における第二の幅分の数の画素が前記第二方向に連続して並ぶ第二画素群を、前記不要領域の境界を基準として前記第二方向の反対方向に折り返して配置する第二処理を前記第二方向に直交する方向に繰り返して行うことにより第二折り返し画像を生成する、画像生成ステップと、前記画像生成ステップにより生成された、前記第一折り返し画像と、前記第二折り返し画像との合成により、合成画像を生成する画像合成ステップと、を含む画像処理方法を実行させる。
 以上、本発明の一つまたは複数の態様に係る画像処理装置について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の一つまたは複数の態様の範囲内に含まれてもよい。
 本発明にかかる画像処理装置は、計算量が少なく、かつ、より自然な不要領域の補完処理が実現可能な画像処理装置等であって、特にデジタルビデオカメラやデジタルカメラ上でリアルタイムに撮影画像内の不要領域を除去可能な、不要領域除去アプリ等として有用である。
 100、400、700 画像処理装置
 101 画像取得部
 102 マスク画像取得部
 103 第一画像生成部
 104 第二画像生成部
 105 画像合成部
 106 画像表示部
 110 画像生成部
 201 画素
 210 入力画像
 211 第一折り返し境界
 212 第一折り返し画像
 213 第一方向
 220 重み係数
 230 第一折り返し画像312に重み係数320を掛けた画像
 241 第二折り返し境界
 242 第二折り返し画像
 243 第二方向
 250 重み係数
 260 第二折り返し画像342に重み係数350を掛けた画像
 270 合成画像
 401 テクスチャ解析部
 501 不要領域
 502 外接円
 503 周辺領域円
 601 第一方向
 602 第一折り返し画像
 603 第一折り返し境界
 604 第二折り返し境界
 611 第二方向
 612 第二折り返し画像
 701 領域分割部
 801 不要領域
 811~814 境界周辺領域

Claims (18)

  1.  入力画像を取得する画像取得部と、
     前記入力画像の内で不要領域を示す情報である領域情報を取得する取得部と、
     (i)前記領域情報により示される前記不要領域の第一方向に隣接する第一領域において、前記不要領域の前記第一方向における第一の幅分の数の画素が前記第一方向に連続して並ぶ第一画素群を、前記不要領域の境界を基準として前記第一方向の反対方向に折り返して配置する第一処理を前記第一方向に直交する方向に繰り返して行うことにより第一折り返し画像を生成し、(ii)前記不要領域の第二方向に隣接する第二領域において、前記不要領域の前記第二方向における第二の幅分の数の画素が前記第二方向に連続して並ぶ第二画素群を、前記不要領域の境界を基準として前記第二方向の反対方向に折り返して配置する第二処理を前記第二方向に直交する方向に繰り返して行うことにより第二折り返し画像を生成する、画像生成部と、
     前記画像生成部により生成された、前記第一折り返し画像と、前記第二折り返し画像との合成により、合成画像を生成する画像合成部と、を備える
     画像処理装置。
  2.  前記画像生成部は、
     前記第一領域において前記第一方向に連続して並ぶ画素の数が、前記第一の幅分の数よりも少ないと判定した場合に、当該第一領域の前記第一方向に連続して並ぶ画素群を取得して、当該画素群を前記第一方向の反対方向に前記第一の幅分を繰り返し折り返して配置する処理を前記第一処理として前記第一方向に直交する方向に繰り返して行うことにより前記第一折り返し画像を生成し、
     前記第二領域において前記第一方向に連続して並ぶ画素の数が、前記第二の幅分の数よりも少ないと判定した場合に、当該第二領域の前記第二方向に連続して並ぶ画素群を取得して、当該画素群を前記第二方向の反対方向に前記第二の幅分を繰り返し折り返して配置する処理を前記第二処理として前記第二方向に直交する方向に繰り返して行うことにより前記第二折り返し画像を生成する
     請求項1に記載の画像処理装置。
  3.  さらに、
     禁止領域を設定する領域設定部を備え、
     前記画像生成部は、(i)前記禁止領域が前記不要領域よりも前記第一方向側にある場合には、前記第一領域から前記禁止領域を除く領域において前記第一処理を前記第一方向に直交する方向に繰り返して行うことにより、前記第一折り返し画像を生成し、(ii)前記禁止領域が前記不要領域よりも前記第二方向側にある場合には、前記第二領域から前記禁止領域を除く領域において前記第二処理を前記第二方向に直交する方向に繰り返して行うことにより、前記第二折り返し画像を生成する
     請求項1または2に記載の画像処理装置。
  4.  さらに、
     探索領域を設定する領域設定部を備え、
     前記画像生成部は、(i)前記探索領域において前記第一処理を前記第一方向に直交する方向に繰り返して行うことにより、前記第一折り返し画像を生成し、(ii)前記探索領域を除く領域において前記第二処理を前記第二方向に直交する方向に繰り返して行うことにより、前記第二折り返し画像を生成する
     請求項1または2に記載の画像処理装置。
  5.  前記第一方向は水平方向上で前記不要領域の境界から左側の方向であり、
     前記第二方向は水平方向上で前記不要領域の境界から右側の方向である
     請求項1から4のいずれか1項に記載の画像処理装置。
  6.  前記画像生成部はさらに、
     (i)垂直方向で前記不要領域の上側の方向である第三方向に隣接する第三領域において、前記不要領域の前記第三方向における第三の幅分の数の画素が前記第三方向に連続して並ぶ第三画素群を、前記不要領域の境界を基準として前記第三方向の反対方向に折り返して配置する第三処理を前記第三方向に直交する方向に繰り返して行うことにより第三折り返し画像を生成し、(ii)垂直方向で前記不要領域の下側の方向である第四方向に隣接する第四領域において、前記不要領域の前記第四方向における第四の幅分の数の画素が前記第四方向に連続して並ぶ第四画素群を、前記不要領域の境界を基準として前記第四方向の反対方向に折り返して配置する第四処理を前記第四方向に直交する方向に繰り返して行うことにより第四折り返し画像を生成し、
     前記画像合成部は、前記画像生成部により生成された、前記第一折り返し画像と、前記第二折り返し画像と、前記第三折り返し画像と、第四折り返し画像との合成により、合成画像を生成する
     請求項5に記載の画像処理装置。
  7.  前記画像合成部は、
     前記第一折り返し画像における複数の画素のそれぞれの画素値に対して設定された第一の重みを、当該画素値に掛け合わせ、
     前記第二折り返し画像における複数の画素のそれぞれの画素値に対して設定された第二の重みを、当該画素値に掛け合わせ、
     前記第一の重みの掛け合わされた後の前記第一折り返し画像の複数の画素値のそれぞれと、前記第二の重みの掛け合わされた後の前記第二折り返し画像の複数の画素値のそれぞれとを足し合わせることで前記合成を行う
     請求項1から5のいずれか1項に記載の画像処理装置。
  8.  前記画像合成部は、前記不要領域の境界から近い画素ほど重みが大きくなるように前記第一の重みおよび第二の重みを設定する
     請求項7に記載の画像処理装置。
  9.  前記画像合成部は、前記不要領域を構成する複数の画素のそれぞれについて、当該画素に対応する位置にある前記第一折り返し画像の画素値に掛け合わされる前記第一の重みと、および当該画素に対応する位置にある前記第二折り返し画像の画素値に掛け合わされる前記第二の重みとの加算値が1になるように、前記第一の重みと前記第二の重みとを設定する
     請求項7または8に記載の画像処理装置。
  10.  さらに、
     前記不要領域の周辺領域のテクスチャを解析することで、前記第一方向および前記第二方向を決定するテクスチャ解析部を備える
     請求項1から9のいずれか1項に記載の画像処理装置。
  11.  前記テクスチャ解析部は、前記入力画像のエッジ画像から求めたエッジ強度およびエッジ角度から、最頻度の直線を検出し、前記第一の方向および前記第二方向を、検出した前記最頻度の直線上の両方向に決定する
     請求項10に記載の画像処理装置。
  12.  前記テクスチャ解析部は、前記入力画像のエッジ画像から求めた画素ごともしくは領域ごとのエッジの角度から、頻度の高い角度を検出し、前記第一方向および前記第二方向を、検出した前記頻度の高い角度に対して垂直な方向に決定する
     請求項10または11に記載の画像処理装置。
  13.  さらに、
     前記入力画像のうち前記不要領域の周辺の領域を、同一もしくは類似の特徴を有する画素の集合である複数の領域に分割する領域分割部を備え、
     前記画像生成部は、前記複数の領域のそれぞれについて、前記不要領域の当該領域で設定される所定方向における幅分の数の画素が前記所定方向に連続して並ぶ画素群を、前記不要領域の境界を基準として前記所定方向の反対方向に折り返して配置する処理を前記所定方向に直交する方向に繰り返して行うことにより分割折り返し画像を生成する
     請求項1から12のいずれか1項に記載の画像処理装置。
  14.  さらに、
     前記画像合成部の結果を表示する画像表示部を備える
     請求項1から13のいずれか1項に記載の画像処理装置。
  15.  ユーザによるタッチ入力が可能な表示部を備える画像処理装置であって、
     前記表示部に表示されている入力画像内においてタッチ入力されることにより特定された領域を前記入力画像における不要領域として検出する第一検出部と、
     前記不要領域が前記第一検出部により検出された後、再びタッチ入力を検出し、検出した前記タッチ入力による検出位置が所定値以上の移動である場合に、当該移動の方向を第一方向として検出する第二検出部と、
     前記不要領域の前記第一方向に隣接する第一領域に、前記不要領域の前記第一方向の幅分の数の画素が前記第一方向に連続して並ぶ第一画素群を、前記不要領域の境界を基準として前記第一方向の反対方向に折り返して配置する第一処理を前記第一方向に直交する方向に繰り返して行うことにより第一折り返し画像を生成する画像生成部と、
     前記入力画像と、前記第一折り返し画像とを合成することにより、合成画像を生成する画像合成部と、
     前記合成画像を表示する前記表示部と、を備える
     画像処理装置。
  16.  入力画像を取得する画像取得ステップと、
     前記入力画像の内で不要領域を示す情報である領域情報を取得する取得ステップと、
     (i)前記領域情報により示される前記不要領域の第一方向に隣接する第一領域において、前記不要領域の前記第一方向における第一の幅分の数の画素が前記第一方向に連続して並ぶ第一画素群を、前記不要領域の境界を基準として前記第一方向の反対方向に折り返して配置する第一処理を前記第一方向に直交する方向に繰り返して行うことにより第一折り返し画像を生成し、(ii)前記不要領域の第二方向に隣接する第二領域において、前記不要領域の前記第二方向における第二の幅分の数の画素が前記第二方向に連続して並ぶ第二画素群を、前記不要領域の境界を基準として前記第二方向の反対方向に折り返して配置する第二処理を前記第二方向に直交する方向に繰り返して行うことにより第二折り返し画像を生成する、画像生成ステップと、
     前記画像生成ステップにより生成された、前記第一折り返し画像と、前記第二折り返し画像との合成により、合成画像を生成する画像合成ステップと、を含む
     画像処理方法。
  17.  請求項16に記載の画像処理方法をコンピュータに実行させるためのプログラム。
  18.  入力画像を取得する画像取得部と、
     前記入力画像の内で不要領域を示す情報である領域情報を取得する取得部と、
     (i)前記領域情報により示される前記不要領域の第一方向に隣接する第一領域において、前記不要領域の前記第一方向における第一の幅分の数の画素が前記第一方向に連続して並ぶ第一画素群を、前記不要領域の境界を基準として前記第一方向の反対方向に折り返して配置する第一処理を前記第一方向に直交する方向に繰り返して行うことにより第一折り返し画像を生成し、(ii)前記不要領域の第二方向に隣接する第二領域において、前記不要領域の前記第二方向における第二の幅分の数の画素が前記第二方向に連続して並ぶ第二画素群を、前記不要領域の境界を基準として前記第二方向の反対方向に折り返して配置する第二処理を前記第二方向に直交する方向に繰り返して行うことにより第二折り返し画像を生成する、画像生成部と、
     前記画像生成部により生成された、前記第一折り返し画像と、前記第二折り返し画像との合成により、合成画像を生成する画像合成部と、を備える
     集積回路。
PCT/JP2013/002737 2012-05-30 2013-04-23 画像処理装置および画像処理方法 WO2013179560A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013537975A JPWO2013179560A1 (ja) 2012-05-30 2013-04-23 画像処理装置および画像処理方法
US14/116,473 US20140079341A1 (en) 2012-05-30 2013-04-23 Image processing apparatus and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012123599 2012-05-30
JP2012-123599 2012-05-30

Publications (1)

Publication Number Publication Date
WO2013179560A1 true WO2013179560A1 (ja) 2013-12-05

Family

ID=49672794

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/002737 WO2013179560A1 (ja) 2012-05-30 2013-04-23 画像処理装置および画像処理方法

Country Status (3)

Country Link
US (1) US20140079341A1 (ja)
JP (1) JPWO2013179560A1 (ja)
WO (1) WO2013179560A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017058929A (ja) * 2015-09-16 2017-03-23 日本電信電話株式会社 画像情報取得方法、画像評価方法、画像情報取得装置、画像評価装置及び画像処理プログラム
WO2018180578A1 (ja) * 2017-03-31 2018-10-04 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、撮像装置、画像処理方法、およびプログラム
JP2019053732A (ja) * 2017-09-15 2019-04-04 ソニー株式会社 シーン内に存在する不要なオブジェクトの除去に基づくシーンの画像の動的生成
JP2020048117A (ja) * 2018-09-20 2020-03-26 大日本印刷株式会社 画像提供システム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101999140B1 (ko) * 2013-01-03 2019-07-11 삼성전자주식회사 카메라장치 및 카메라를 구비하는 휴대단말기의 이미지 촬영장치 및 방법
JP2016092712A (ja) * 2014-11-10 2016-05-23 セイコーエプソン株式会社 画像処理装置、画像処理方法およびプログラム
US11227007B2 (en) * 2019-07-23 2022-01-18 Obayashi Corporation System, method, and computer-readable medium for managing image
CN116883993B (zh) * 2023-09-06 2023-12-01 临沂大学 基于视觉的玫瑰花茶干花分选方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005094212A (ja) * 2003-09-16 2005-04-07 Canon Inc 画像処理装置及び方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP2011170840A (ja) * 2010-01-20 2011-09-01 Sanyo Electric Co Ltd 画像処理装置及び電子機器
JP2011249926A (ja) * 2010-05-24 2011-12-08 Nikon Corp 画像処理プログラム、および画像処理装置
JP2012000324A (ja) * 2010-06-18 2012-01-05 Panasonic Electric Works Co Ltd ミラーセラピーシステム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003032542A (ja) * 2001-07-19 2003-01-31 Mitsubishi Electric Corp 撮像装置
JP4307301B2 (ja) * 2003-07-31 2009-08-05 キヤノン株式会社 画像処理装置およびその方法
JP2007233871A (ja) * 2006-03-02 2007-09-13 Fuji Xerox Co Ltd 画像処理装置、コンピュータの制御方法及びプログラム
JP4883783B2 (ja) * 2006-12-22 2012-02-22 キヤノン株式会社 画像処理装置およびその方法
US8126288B2 (en) * 2007-01-31 2012-02-28 A School Juridical Person Fujita Educational Institution Image processing apparatus
JP4289414B2 (ja) * 2007-03-27 2009-07-01 セイコーエプソン株式会社 画像変形のための画像処理
JP4957463B2 (ja) * 2007-08-30 2012-06-20 セイコーエプソン株式会社 画像処理装置
JP5071162B2 (ja) * 2008-03-05 2012-11-14 セイコーエプソン株式会社 画像処理装置、画像処理方法及び画像処理用コンピュータプログラム
JP5287778B2 (ja) * 2010-03-26 2013-09-11 株式会社島津製作所 画像処理方法およびそれを用いた放射線撮影装置
JP2013045316A (ja) * 2011-08-25 2013-03-04 Sanyo Electric Co Ltd 画像処理装置及び画像処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005094212A (ja) * 2003-09-16 2005-04-07 Canon Inc 画像処理装置及び方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP2011170840A (ja) * 2010-01-20 2011-09-01 Sanyo Electric Co Ltd 画像処理装置及び電子機器
JP2011249926A (ja) * 2010-05-24 2011-12-08 Nikon Corp 画像処理プログラム、および画像処理装置
JP2012000324A (ja) * 2010-06-18 2012-01-05 Panasonic Electric Works Co Ltd ミラーセラピーシステム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017058929A (ja) * 2015-09-16 2017-03-23 日本電信電話株式会社 画像情報取得方法、画像評価方法、画像情報取得装置、画像評価装置及び画像処理プログラム
WO2018180578A1 (ja) * 2017-03-31 2018-10-04 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、撮像装置、画像処理方法、およびプログラム
JPWO2018180578A1 (ja) * 2017-03-31 2020-02-06 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、撮像装置、画像処理方法、およびプログラム
US11170511B2 (en) 2017-03-31 2021-11-09 Sony Semiconductor Solutions Corporation Image processing device, imaging device, and image processing method for replacing selected image area based on distance
JP7098601B2 (ja) 2017-03-31 2022-07-11 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、撮像装置、画像処理方法、およびプログラム
JP2019053732A (ja) * 2017-09-15 2019-04-04 ソニー株式会社 シーン内に存在する不要なオブジェクトの除去に基づくシーンの画像の動的生成
JP2020048117A (ja) * 2018-09-20 2020-03-26 大日本印刷株式会社 画像提供システム

Also Published As

Publication number Publication date
JPWO2013179560A1 (ja) 2016-01-18
US20140079341A1 (en) 2014-03-20

Similar Documents

Publication Publication Date Title
WO2013179560A1 (ja) 画像処理装置および画像処理方法
JP4696635B2 (ja) 画像領域の高凝縮要約画像を生成する方法、装置およびプログラム
CN107123084B (zh) 优化图像裁剪
JP6167703B2 (ja) 表示制御装置、プログラム及び記録媒体
JP4715267B2 (ja) 画像における重要度の高い領域を判別する方法、装置及びプログラム
US10809898B2 (en) Color picker
JP2010160790A (ja) 自動画像クロッピング
WO2018198703A1 (ja) 表示装置
CN103702032A (zh) 图像处理方法、装置和终端设备
KR20150106330A (ko) 화상 표시 장치 및 화상 표시 방법
US8726185B1 (en) Method and apparatus for rendering overlapped objects
US8824778B2 (en) Systems and methods for depth map generation
KR20160006965A (ko) 디스플레이 장치 및 이의 하이라이트 표시 방법
KR20140008041A (ko) 방향 적응적 영상 보간 방법 및 그 전자 장치
US9143754B2 (en) Systems and methods for modifying stereoscopic images
US20130236117A1 (en) Apparatus and method for providing blurred image
CN106131628B (zh) 一种视频图像处理方法及装置
JP6137464B2 (ja) 画像処理装置および画像処理プログラム
RU2509377C2 (ru) Способ и система и для просмотра изображения на устройстве отображения
US9530183B1 (en) Elastic navigation for fixed layout content
JP2023522370A (ja) 画像表示方法、装置、機器及び記憶媒体
JP6443505B2 (ja) プログラム、表示制御装置及び表示制御方法
JP7533619B2 (ja) 情報処理装置、情報処理方法、及びコンピュータプログラム
KR102507669B1 (ko) 전자 장치 및 그의 제어방법
JP5281720B1 (ja) 立体映像処理装置及び立体映像処理方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2013537975

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14116473

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13798207

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13798207

Country of ref document: EP

Kind code of ref document: A1