[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20090114707A - Camera and method for compounding picked-up image - Google Patents

Camera and method for compounding picked-up image Download PDF

Info

Publication number
KR20090114707A
KR20090114707A KR1020080040485A KR20080040485A KR20090114707A KR 20090114707 A KR20090114707 A KR 20090114707A KR 1020080040485 A KR1020080040485 A KR 1020080040485A KR 20080040485 A KR20080040485 A KR 20080040485A KR 20090114707 A KR20090114707 A KR 20090114707A
Authority
KR
South Korea
Prior art keywords
image
person
divided
guide
camera
Prior art date
Application number
KR1020080040485A
Other languages
Korean (ko)
Other versions
KR101441585B1 (en
Inventor
김정배
황영규
이종하
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020080040485A priority Critical patent/KR101441585B1/en
Publication of KR20090114707A publication Critical patent/KR20090114707A/en
Application granted granted Critical
Publication of KR101441585B1 publication Critical patent/KR101441585B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Circuits (AREA)

Abstract

PURPOSE: A camera and a photographed image synthesizing method are provided to synthesize and photograph a group picture naturally by providing a guide image in real time when a photographer takes a picture of a background after he/she photographs the same background. CONSTITUTION: A photographed image synthesizing method comprises the following steps of: analyzing the first and second images which are previously photographed when entering an image synthesizing mode(S110); separating a person image from one of the first and second images according to the analyzed result(S120); and providing a guide image which induces the photographed image synthesizing by overlaying the separated person image with one of the first and second images which is not separated(S130).

Description

카메라 및 촬영이미지 합성방법 {Camera and method for compounding picked-up image}Camera and method for compounding picked-up image}

본 발명은 피사체를 촬영하여 획득되는 영상 이미지를 저장하는 카메라에 관한 것이다.The present invention relates to a camera for storing a video image obtained by photographing a subject.

디지털 카메라의 보급확대 및 레저생활 증대로 인하여 디지털 카메라를 이용해 사진을 촬영하는 일이 증가하고 있다. 이때 카메라 사용자가 본인의 사진을 촬영하려면 삼각대를 카메라와 함께 가져와야 하지만 삼각대를 항상 휴대하기는 불편하고 번거로운 일이다.Due to the expansion of digital cameras and the increase in leisure life, taking pictures with digital cameras is increasing. The camera user must bring a tripod with the camera in order to take a picture of himself, but it is inconvenient and cumbersome to carry the tripod all the time.

한편 삼각대와 같은 장치를 가져오지 않은 경우에는 다른 사람에게 사진 촬영을 부탁해야 한다. 그러나 이 경우 촬영자의 위치나 시각의 차이로 사용자가 의도하는 배경과 구도하에서 사용자 본인의 사진을 촬영하기 어렵다. 나아가 촬영을 부탁할 사람이 없다면 촬영자까지 포함된 단체사진을 촬영하기는 불가능하다.On the other hand, if you do not bring a device such as a tripod, ask someone to take a picture. However, in this case, it is difficult to take a picture of the user under the background and composition intended by the user due to the difference in the position or the time of the photographer. Furthermore, if there is no one to ask for shooting, it is impossible to take a group picture that includes the photographer.

본 발명은 단체사진을 자연스럽게 합성하여 촬영할 수 있는 카메라 및 촬영이미지 합성방법을 제안한다.The present invention proposes a camera and a photographing image synthesizing method capable of naturally synthesizing a group photo.

즉 본 발명은 한 촬영자가 촬영한 후 동일 배경에서 그 촬영자가 촬영될 때 실시간으로 가이드 이미지를 제공하여 단체사진을 자연스럽게 합성하여 촬영할 수 있는 카메라 및 촬영이미지 합성방법을 제안한다.That is, the present invention proposes a camera and a method for synthesizing a photographed image, which can be synthesized and photographed naturally in a group photograph by providing a guide image in real time when the photographed person is photographed by the photographer in the same background.

보다 구체적으로 본 발명의 일 양상에 따른 촬영이미지 합성방법은 이미지 합성 모드에 진입되면 미리 촬영된 제1 이미지 및 제1 이미지와 동일한 배경에서 카메라에 포착되고 있는 제2 이미지를 분석하는 단계, 분석된 결과에 따라 제1 이미지 또는 제2 이미지 중 어느 하나에서 인물 이미지를 분할하는 단계 및 분할된 인물 이미지를 인물 이미지가 분할되지 않은 제1 이미지 또는 제2 이미지 중 어느 하나에 오버레이하여 촬영이미지 합성을 유도하는 가이드 이미지를 제공하는 단계를 포함한다.More specifically, in the photographed image compositing method according to an aspect of the present invention, when the image compositing mode is entered, analyzing the first image captured by the camera and the second image captured by the camera on the same background as the first image; According to the result, the step of dividing the person image from either the first image or the second image and overlaying the divided person image on either the first image or the second image in which the person image is not divided to induce the synthesis of the captured image. Providing a guide image.

한편 본 발명의 다른 양상에 따른 카메라는 이미지 합성 모드에 진입되면 미리 촬영된 제1 이미지 및 제1 이미지와 동일한 배경에서 카메라에 포착되고 있는 제2 이미지를 분석하는 이미지 분석부, 분석된 결과에 따라 제1 이미지 또는 제2 이미지 중 어느 하나에서 인물 이미지를 분할하는 이미지 분할부 및 분할된 인물 이미지를 인물 이미지가 분할되지 않은 제1 이미지 또는 제2 이미지 중 어느 하나에 오버레이하여 가이드 이미지를 제공하는 이미지 제공부를 포함한다.On the other hand, the camera according to another aspect of the present invention is an image analyzer for analyzing the first image and the second image that is captured by the camera on the same background as the first image when entering the image composition mode, according to the analysis result An image divider for dividing a person image from either the first image or the second image and an image for overlaying the divided person image on either the first image or the second image in which the person image is not divided to provide a guide image. It includes a providing unit.

이하에서는 첨부한 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, with reference to the accompanying drawings will be described embodiments of the present invention; In the following description of the present invention, if it is determined that detailed descriptions of related well-known functions or configurations may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. In addition, terms to be described below are terms defined in consideration of functions in the present invention, which may vary according to intention or custom of a user or an operator. Therefore, the definition should be made based on the contents throughout the specification.

도 1은 본 발명의 일 실시예에 따른 카메라(1)의 구성도이다.1 is a configuration diagram of a camera 1 according to an embodiment of the present invention.

도 1을 참조하면, 카메라(1)는 이미지 분석부(10), 이미지 분할부(20) 및 이미지 제공부(30)를 포함하며, 이미지 합성부(40)를 더 포함할 수 있다.Referring to FIG. 1, the camera 1 may include an image analyzer 10, an image divider 20, and an image provider 30, and may further include an image synthesizer 40.

본 발명의 일 실시예에 따른 카메라(1)는 하나의 배경에서 촬영자까지 포함된 단체사진 이미지를 생성한다. 이를 위하여 카메라(1)는 한 촬영자가 다른 사람들을 사진 촬영하면 이후 동일한 배경에서 그 촬영자를 다시 촬영할 수 있도록 가이드 이미지를 제공한다. 가이드 이미지는 동일한 배경에서 촬영된 이미지와 촬영될 이미지를 합성할 수 있게 반투명한 형태로 디스플레이 화면에 실시간으로 제공된다.The camera 1 according to an embodiment of the present invention generates a group photograph image including a photographer from one background. To this end, the camera 1 provides a guide image so that when one photographer photographs another person, he / she can photograph the photographer again on the same background. The guide image is provided in real time on the display screen in a translucent form so that the image captured on the same background and the image to be photographed can be synthesized.

우선 본 명세서 전반에 있어서, 카메라(1)를 통해 촬영자가 특정한 배경에서 제1 이미지를 촬영한다고 가정한다. 이후 촬영자가 촬영한 제1 이미지에 포함된 한 사람에게 카메라를 넘겨 주고 동일한 배경에서 자신의 촬영을 부탁한다고 가정한다. 이때 현재 카메라(1)에 포착되고 있는 제2 이미지가 화면에 제공되고 있는 촬영 대기 상태에서 이미지 합성 모드에 진입된다. 이미지 합성 모드는 촬영자가 이미지 합성 모드 버튼을 누르는 동작 등을 통해 이루어질 수 있다.First, throughout the present specification, it is assumed that the photographer photographs the first image on a specific background through the camera 1. After that, it is assumed that the photographer hands over the camera to the person included in the first image photographed by the photographer and asks for his own shooting in the same background. At this time, the second image currently captured by the camera 1 enters the image combining mode in a shooting standby state provided on the screen. The image combining mode may be performed by an operator pressing an image combining mode button.

이미지 분석부(10)는 이미지 합성 모드에 진입되면 제1 이미지와 제2 이미지를 분석한다. 제1 이미지는 미리 촬영된 이미지이며, 제2 이미지는 제1 이미지와 동일한 배경에서 카메라에 포착되고 있는 실시간 이미지이다. 여기서 제1 이미지 및 제2 이미지의 특징을 나타내는 이미지 정보를 각각 추출하여 분석할 수 있다. 이미지 분석부(10)의 이미지 분석에 대한 상세한 설명은 도 2에서 후술한다.The image analyzer 10 analyzes the first image and the second image when the image combining mode is entered. The first image is a pre-photographed image, and the second image is a real time image captured by the camera on the same background as the first image. The image information representing the characteristics of the first image and the second image may be extracted and analyzed, respectively. A detailed description of the image analysis of the image analyzer 10 will be described later with reference to FIG. 2.

한편 이미지 분할부(20)는 이미지 분석부(10)를 통해 분석된 결과에 따라 제1 이미지 또는 제2 이미지 중 어느 하나에서 인물 이미지를 분할한다. 인물 이미지의 분할에 대한 상세한 설명은 도 3에서 후술한다.The image divider 20 divides the person image from either the first image or the second image according to the result analyzed by the image analyzer 10. A detailed description of the division of the person image will be described later with reference to FIG. 3.

이미지 제공부(30)는 이미지 분할부(20)를 통해 분할된 인물 이미지를 인물 이미지가 분할되지 않은 제1 이미지 또는 제2 이미지 중 어느 하나에 오버레이하여 촬영이미지 합성을 유도하는 가이드 이미지를 실시간으로 제공한다. 여기서 제1 이미지는 백그라운드 이미지(background image)이며, 제2 이미지로부터 분할된 인물 이미지는 제1 이미지에 오버레이될 포어그라운드 이미지(foreground image)일 수 있다. 또는 제2 이미지는 백그라운드 이미지이며, 제1 이미지로부터 분할된 인물 이미지는 제2 이미지에 오버레이될 포어그라운드 이미지일 수 있다. 백그라운드 이미지는 합성시 배경이 되는 이미지이며 포어그라운드 이미지는 백그라운드 이미지와 합성되는 인물 이미지이다.The image providing unit 30 overlays the image of the person divided by the image dividing unit 20 on either the first image or the second image in which the person image is not divided, and in real time, the guide image for inducing the synthesis of the captured image. to provide. Here, the first image may be a background image, and the person image divided from the second image may be a foreground image to be overlaid on the first image. Alternatively, the second image may be a background image, and the person image divided from the first image may be a foreground image to be overlaid on the second image. The background image is the background image when compositing, and the foreground image is the person image synthesized with the background image.

이미지 합성부(40)는 이미지 제공부(30)를 통해 제공된 가이드 이미지에서 촬영자가 촬영하면, 분할된 인물 이미지와 인물 이미지가 분할되지 않은 제1 이미지 또는 제2 이미지를 가이드 이미지가 제공된 위치에서 합성한다. 이에 따라 촬영자까지 포함된 자연스런 단체사진으로 합성할 수 있다.When the photographer photographs the guide image provided through the image providing unit 30, the image synthesizing unit 40 synthesizes the divided person image and the first image or the second image in which the person image is not divided at the position where the guide image is provided. do. Accordingly, it can be synthesized into a natural group photo including the photographer.

도 2는 본 발명의 일 실시예에 따른 촬영이미지 합성방법을 도시한 흐름도이다.2 is a flowchart illustrating a method of synthesizing photographed images according to an embodiment of the present invention.

도 2를 참조하면, 카메라는 이미지 합성 모드에 진입(S100)되면 미리 촬영된 제1 이미지 및 제1 이미지와 동일한 배경에서 카메라에 포착되고 있는 제2 이미지를 분석한다(S110).Referring to FIG. 2, when the camera enters the image combining mode (S100), the camera analyzes a first image captured in advance and a second image captured by the camera on the same background as the first image (S110).

구체적으로 제1 이미지와 제2 이미지로부터 각각의 특징을 나타내는 이미지 정보를 추출하여 분석한다. 이미지 정보는 이미지의 특징을 나타내는 정보로서, 이미지에 포함되는 적어도 하나의 특징점(interesting point)에 대한 특징 정보(feature 또는 descriptor)를 포함한다. 특징점은 어떤 이미지에 대하여 시점(view) 또는 크기(scale) 등이 변동되더라도 안정적인 특징 정보를 추출할 수 있는 포인트를 말한다. 특징점을 추출하기 위해서는 해리슨(Harrison), 헤시안 코너 검출(Hessian corner detection) 또는 DoG(Difference of Gaussian) 등의 방법이 이용될 수 있다. 검출된 특징점에 대한 특징 정보는 일반화된 컬러 모멘트(generalized color moment) 또는 SIFT(Scale Invariant Feature Transform) 등의 방법으로 생성될 수 있다. 전술한 방법들은 도 3에서 후술할 제1 이미지와 제2 이미지를 정렬하는 데 이용될 수 있다.In more detail, image information representing respective features is extracted and analyzed from the first image and the second image. The image information is information representing a feature of the image and includes feature information (feature or descriptor) for at least one interested point included in the image. The feature point refers to a point from which stable feature information can be extracted even if a view or scale of a certain image changes. In order to extract the feature points, a method such as Harrison, Hessian corner detection, or Difference of Gaussian may be used. The feature information on the detected feature point may be generated by a method such as a generalized color moment or a scale invariant feature transform (SIFT). The aforementioned methods may be used to align the first image and the second image, which will be described later in FIG. 3.

또한 블롭 분석(blob analysis)이나 특징 추적(feature tracking)과 같은 이 미지 분석기술을 이용하여 제1 이미지와 제2 이미지를 분석할 수 있다. 블롭이란 이미지에서 특성이 같은 인접한 화소들을 서로 묶어놓은 것이며, 블롭 분석은 영상 내에서 원하는 물체를 세어 주어진 영역 내의 물체의 개수를 얻어내고, 각각의 길이나 영역의 크기, 평균, 분산 등의 통계값을 자동으로 얻어내는 분석 방법이다. 전술한 블롭 분석이나 특징 추적은 도 3에서 후술할 인물 마스크를 생성하는 데 이용될 수 있다.In addition, the first image and the second image may be analyzed by using image analysis techniques such as blob analysis or feature tracking. A blob is a group of adjacent pixels with the same characteristics in an image.Blob analysis counts the desired objects in an image to obtain the number of objects in a given area, and calculates statistics such as size, average, and variance of each length or area. It is an analysis method that automatically obtains. The blob analysis or feature tracking described above may be used to generate a portrait mask, which will be described later with reference to FIG. 3.

한편 분석된 결과에 따라 제1 이미지 또는 제2 이미지 중 어느 하나에서 인물 이미지를 분할한다(S120). 인물 이미지 분할에 대한 상세한 설명은 도 3에서 후술한다.Meanwhile, the person image is divided into one of the first image and the second image according to the analyzed result (S120). A detailed description of the person image segmentation will be described later with reference to FIG. 3.

이어서 분할된 인물 이미지를 인물 이미지가 분할되지 않은 제1 이미지 또는 제2 이미지 중 어느 하나에 오버레이하여 가이드 이미지를 제공한다(S130). 촬영이미지 합성을 유도하는 가이드 이미지는 제1 이미지와 제2 이미지를 합성할 수 있도록 반투명한 형태로 디스플레이 화면에 실시간으로 제공된다. 이때 픽셀 평균화(pixel averaging) 방식을 이용하여 가이드 이미지를 생성할 수 있다.Subsequently, the divided person image is overlaid on either the first image or the second image in which the person image is not divided to provide a guide image (S130). The guide image for inducing the synthesis of the captured images is provided in real time on the display screen in a translucent form so as to synthesize the first image and the second image. In this case, the guide image may be generated by using pixel averaging.

나아가 실시간으로 제공되는 가이드 이미지를 이용하여 촬영자로부터 촬영되면 분할된 인물 이미지와 인물 이미지가 분할되지 않은 제1 이미지 또는 제2 이미지를 가이드 이미지가 생성된 위치에서 합성한다(S140). 이러한 합성은 픽셀 대체(pixel replacement) 방식을 통해 구현될 수 있다. 합성된 이미지는 카메라 화면에 디스플레이되거나, 저장되어 추후 재생 모드에서 저장된 이미지가 독출되어 표시될 수 있다.Furthermore, when photographed from the photographer using the guide image provided in real time, the first image or the second image in which the divided person image and the person image are not divided are synthesized at the position where the guide image is generated (S140). Such compositing can be implemented through pixel replacement. The synthesized image may be displayed on the camera screen or may be stored and read and displayed in a later playback mode.

이에 따라 포토샵 등의 별도의 프로그램을 이용한 번거롭고 어려운 합성 작업 없이도, 본 발명의 일 실시예에 따른 방법을 통해 단 두 번의 사진 촬영으로 동일한 배경에서 제1 이미지와 제2 이미지를 합성하여 단체사진을 생성할 수 있다. 이러한 방법은 이미지를 완벽히 분할하지 않아도 동일 배경을 기초로 자연스럽게 단체사진을 생성할 수 있는 방법이다.Accordingly, even without a cumbersome and difficult compositing operation using a separate program such as Photoshop, a group photo is generated by synthesizing a first image and a second image on the same background using only two photographing methods through the method according to an embodiment of the present invention. can do. This method is a way to create a group photo naturally based on the same background without dividing the image perfectly.

도 3은 도 2의 인물 이미지 분할방법을 상세히 도시한 흐름도이다.3 is a flowchart illustrating a method of dividing a person image of FIG. 2 in detail.

도 3을 참조하면, 분석된 결과에 따라 제1 이미지와 제2 이미지가 정렬된 제3 이미지를 생성한다(S122). 이때 제1 이미지를 백그라운드 이미지로 설정한 경우 제2 이미지를 제1 이미지에 정렬한다. 그러나 제2 이미지를 백그라운드 이미지로 설정한 경우 제1 이미지를 제2 이미지에 정렬한다. 이렇게 각 이미지를 정렬하여 제3 이미지를 생성하는 이유는 제1 이미지와 제2 이미지가 서로 다른 촬영자에 의해 촬영되므로 촬영 위치 또는 촬영 각도에 따라 배경이 달라질 수 있기 때문이다.Referring to FIG. 3, a third image in which the first image and the second image are aligned according to the analyzed result is generated (S122). In this case, when the first image is set as the background image, the second image is aligned with the first image. However, when the second image is set as the background image, the first image is aligned with the second image. The reason why the third image is generated by arranging each image is because the background of the first image and the second image are taken by different photographers, and thus the background may be changed according to the shooting position or the shooting angle.

제1 이미지와 제2 이미지 정렬시 본 발명의 일 실시예에 따른 카메라는 도 2에서 전술한 해리슨, 헤시안 코너 검출 또는 DoG 방식을 통해 특징점을 추출하고, 일반화된 컬러 모멘트 또는 SIFT 등의 방법을 통해 추출된 특징점의 특징정보를 얻을 수 있으나, 전술한 방법 이 외의 다양한 실시예가 가능하다.When the first image and the second image are aligned, the camera extracts feature points through the Harrison, Hessian corner detection, or DoG method described above with reference to FIG. 2, and uses a generalized color moment or SIFT method. The feature information of the extracted feature point can be obtained, but various embodiments other than the above-described method are possible.

여기서 추출된 특징점 및 특징정보를 이용하여 제1 이미지와 제2 이미지를 상호 비교분석할 수 있다. 분석시 제1 이미지와 제2 이미지 사이의 변이 정보를 계산하여 제1 이미지의 특징점과 제2 이미지의 특징점 각각에 대하여 포인트 매칭을 수행한다. 포인트 매칭은 NCC(Normalized Cross Correlation)와 상관 계 수(Correlation Coefficient) 등을 이용할 수 있다. 그리고 어파인 트랜스폼(affine transform)을 이용하여 포인트 매칭이 된 각각의 특징점 간의 변이 정보를 계산할 수 있는데, 변이 정보는 대응되는 특징점들 사이의 확대 또는 축소와 같은 크기의 변화량, 이동량 및 소정의 축에 대한 회전량 중 적어도 하나의 정보를 포함할 수 있다. 여기서 카메라는 계산된 변이 정보를 이용하여 제1 이미지를 제2 이미지에 정렬하거나 제2 이미지를 제1 이미지에 정렬할 수 있다.The extracted first feature point and the feature information may be used to compare and analyze the first image and the second image. In the analysis, point information is performed on each feature point of the first image and each feature point of the second image by calculating the disparity information between the first image and the second image. Point matching may use NCC (Normalized Cross Correlation), Correlation Coefficient (Correlation Coefficient), and the like. The affine transform can be used to calculate the disparity information between the feature points matched with the point match. The disparity information includes a change amount, a movement amount, and a predetermined axis, such as enlargement or reduction, between corresponding feature points. It may include at least one information of the rotation amount for. Here, the camera may align the first image to the second image or the second image to the first image by using the calculated disparity information.

이어서 카메라는 백그라운드 이미지와 생성된 제3 이미지와의 차(差) 연산을 통해 인물 마스크들을 분할생성한다(S124). 백그라운드 이미지는 인물 이미지가 분할되지 않은 제1 이미지 또는 제2 이미지 중 하나이다. 그리고 차 연산은 백그라운드 이미지와 제3 이미지 중에서 상호 차이가 있는 영역을 각각 분할 생성하는 연산이다.Subsequently, the camera divides and generates the portrait masks through a difference operation between the background image and the generated third image (S124). The background image is either the first image or the second image in which the person image is not divided. The difference operation is an operation of separately generating regions having mutual differences among the background image and the third image.

한편 카메라는 생성된 제3 이미지에서 얼굴 영역을 검출하여 분할생성된 인물 마스크들 중에서 검출된 얼굴 영역에 해당되는 인물 마스크를 추출한다(S126). 얼굴 영역의 검출은 AdaBoost 방법, 신경망 기반 검출 방법(Neural network based method) 또는 통계적 방법(Statistical method) 방법 등을 이용할 수 있으나 이 외의 다양한 방법의 실시가 가능하다. 분할생성된 인물 마스크들 중 검출된 얼굴 영역에 해당되는 인물 마스크의 추출은 도 2에서 전술한 블롭 분석을 이용할 수 있다. 블롭 분석은 최대 블롭(Max blob), 블롭별 레이블링(Labeling) 방식을 포함할 수 있다.In operation S126, the camera detects a face region from the generated third image and extracts a face mask corresponding to the detected face region from among the segment masks. The face region may be detected using an AdaBoost method, a neural network based method, or a statistical method, but various other methods may be performed. Extraction of the person mask corresponding to the detected face region among the divided person masks may use the blob analysis described above with reference to FIG. 2. The blob analysis may include a maximum blob and a labeling method for each blob.

이어서 추출된 인물 마스크와 생성된 제3 이미지의 논리곱 연산(And operation)을 통해 인물 이미지를 분할한다(S128). 논리곱 연산은 추출된 인물 마스크와 제3 이미지에 공통으로 포함되는 이미지를 추출하는 방식이다. 이러한 방식으로 추출된 인물 이미지는 백그라운드 이미지와 합성될 포어그라운드 이미지이다. 포어그라운드 이미지는 백그라운드 이미지와 결합되어 도 2에서 전술한 가이드 이미지를 실시간으로 생성한다. 이 경우 촬영자가 생성된 가이드 이미지를 이용하여 촬영하면 제1 이미지 및 제2 이미지가 합성된 단체사진을 생성할 수 있다.Subsequently, the person image is divided through an AND operation of the extracted person mask and the generated third image (S128). The AND operation is a method of extracting an image commonly included in the extracted person mask and the third image. The person image extracted in this way is the foreground image to be combined with the background image. The foreground image is combined with the background image to generate the guide image described above with reference to FIG. 2 in real time. In this case, when the photographer photographs using the generated guide image, the group picture combining the first image and the second image may be generated.

이하 후술되는 도면들을 통해 본 발명의 다양한 실시예에 따른 촬영이미지 합성과정을 설명한다. 이때 먼저 촬영된 제1 이미지가 백그라운드 이미지인 제1 실시예와 나중에 촬영되는 제2 이미지가 백그라운드 이미지인 제2 실시예로 나누어 설명한다.Hereinafter, a process of synthesizing photographed images according to various embodiments of the present disclosure will be described with reference to the accompanying drawings. In this case, a description will be given of a first embodiment in which a first image captured first is a background image and a second embodiment in which a second image captured later is a background image.

도 4a 내지 도 4d는 본 발명의 일 실시예에 따른 촬영이미지 합성과정을 설명하기 위한 참고도이다.4A to 4D are reference diagrams for explaining a process of synthesizing photographed images according to an embodiment of the present invention.

도 4a 내지 도 4d는 먼저 촬영된 제1 이미지가 백그라운드 이미지이며, 제2 이미지로부터 분할된 인물 이미지가 제1 이미지에 오버레이될 포어그라운드 이미지인 경우 촬영이미지 합성과정을 도시한 도면이다.4A to 4D are diagrams illustrating a process of synthesizing photographed images when a first image photographed first is a background image and a person image segmented from the second image is a foreground image to be overlaid on the first image.

도 4a 내지 도 4d를 참조하면, 카메라는 이미지 합성 모드에 진입되면 미리 촬영된 제1 이미지(도 4a)와 제2 이미지(도 4b)를 분석한다. 제2 이미지(도 4b)는 제1 이미지(도 4a)와 동일한 배경에서 카메라에 포착되고 있는 실시간 이미지이다.4A to 4D, when the camera enters the image combining mode, the camera analyzes a first image (FIG. 4A) and a second image (FIG. 4B) that are previously photographed. The second image (FIG. 4B) is a real time image captured by the camera on the same background as the first image (FIG. 4A).

그리고 분석된 결과에 따라 제2 이미지(도 4b)에서 인물 이미지를 분할한다. 이어서 분할된 인물 이미지를 제1 이미지(도 4a)에 오버레이하여 촬영이미지 합성 을 유도하는 가이드 이미지(도 4c)를 제공한다. 이를 위하여 도 2에서 전술한 픽셀 평균화 방식을 이용할 수 있다. 가이드 이미지(도 4c)는 제1 이미지(도 4a)와 제2 이미지(도 4b)를 합성할 수 있도록 반투명한 형태로 디스플레이 화면에 실시간으로 제공된다.The person image is divided from the second image (FIG. 4B) according to the analyzed result. Subsequently, the divided person image is overlaid on the first image (FIG. 4A) to provide a guide image (FIG. 4C) for inducing the synthesis of the captured images. To this end, the pixel averaging method described above in FIG. 2 may be used. The guide image (FIG. 4C) is provided in real time on the display screen in a translucent form so as to synthesize the first image (FIG. 4A) and the second image (FIG. 4B).

나아가 제공된 가이드 이미지(도 4c)를 이용하여 촬영되면 제1 이미지(도 4a)와 분할된 인물 이미지를 합성하여 최종 합성 영상(도 4d)을 생성한다. 이러한 합성은 도 2에서 전술한 픽셀 대체 방식을 통해 실행될 수 있다. 이에 따라 본 발명의 일 실시예에 따른 합성방법을 통해 단 두 번의 사진 촬영으로 백그라운드 이미지인 제1 이미지에 새로 촬영된 제2 이미지를 합성하여 자연스러운 단체사진을 실시간으로 생성할 수 있다.Furthermore, when photographed using the provided guide image (FIG. 4C), the final composite image (FIG. 4D) is generated by synthesizing the first image (FIG. 4A) and the divided person image. This synthesis can be performed through the pixel replacement scheme described above in FIG. Accordingly, through the synthesis method according to an embodiment of the present invention, a natural group photo can be generated in real time by synthesizing the newly photographed second image to the first image, which is the background image, by only taking two photographs.

도 5a 내지 도 5d는 본 발명의 다른 실시예에 따른 촬영이미지 합성과정을 설명하기 위한 참고도이다.5A to 5D are reference diagrams for explaining a process of synthesizing photographed images according to another exemplary embodiment of the present invention.

도 5a 내지 도 5d는 현재 촬영할 제2 이미지가 백그라운드 이미지이며, 제1 이미지로부터 분할된 인물 이미지가 제2 이미지에 오버레이될 포어그라운드 이미지인 경우 촬영이미지 합성과정을 도시한 도면이다.5A to 5D are diagrams illustrating a process of synthesizing photographed images when the second image to be photographed is a background image and a person image divided from the first image is a foreground image to be overlaid on the second image.

도 5a 내지 도 5d를 참조하면, 카메라는 이미지 합성 모드에 진입되면 미리 촬영된 제1 이미지(도 5a) 및 제1 이미지(도 5a)와 동일한 배경에서 카메라에 포착되고 있는 제2 이미지(도 5b)를 분석한다. 5A to 5D, when the camera enters the image composition mode, the first image (FIG. 5A) and the second image (FIG. 5B) being captured by the camera on the same background as the first image (FIG. 5A). ).

그리고 분석된 결과에 따라 제1 이미지(도 5a)에서 인물 이미지를 분할한다. 이어서 분할된 인물 이미지를 제2 이미지(도 5b)에 오버레이하여 촬영이미지 합성 을 유도하는 가이드 이미지(도 5c)를 제공한다. 이때 도 2에서 전술한 픽셀 평균화 방식을 이용할 수 있다. 가이드 이미지(도 5c)는 제1 이미지(도 5a)와 제2 이미지(도 5b)를 합성할 수 있도록 반투명한 형태로 디스플레이 화면에 실시간으로 제공된다.Then, the person image is divided from the first image (FIG. 5A) according to the analyzed result. Subsequently, the divided person image is overlaid on the second image (FIG. 5B) to provide a guide image (FIG. 5C) for inducing the synthesis of the captured images. In this case, the pixel averaging method described above in FIG. 2 may be used. The guide image (FIG. 5C) is provided in real time on the display screen in a translucent form so as to synthesize the first image (FIG. 5A) and the second image (FIG. 5B).

나아가 제공된 가이드 이미지(도 5c)를 이용하여 촬영자로부터 촬영되면 제2 이미지(도 5b)와 분할된 인물 이미지를 합성하여 최종 합성 영상(도 5d)을 생성할 수 있다. 이러한 합성은 도 2에서 전술한 픽셀 대체 방식을 통해 실행될 수 있다. 이에 따라 본 발명의 일 실시예에 따른 합성방법을 통해 단 두 번의 사진 촬영으로 백그라운드 이미지인 제2 이미지에 먼저 촬영된 제1 이미지를 실시간으로 합성하여 단체사진을 생성할 수 있다.Furthermore, when photographed from the photographer using the provided guide image (FIG. 5C), the final composite image (FIG. 5D) may be generated by synthesizing the second image (FIG. 5B) and the divided person image. This synthesis can be performed through the pixel replacement scheme described above in FIG. Accordingly, a group photo may be generated by real-time synthesis of a first image photographed on a second image, which is a background image, in real time by only two photographs by using the synthesis method according to an embodiment of the present invention.

도 6a 내지 도 6i는 본 발명의 일 실시예에 따른 도 4a 내지 도 4d의 촬영이미지 합성과정을 구체적으로 설명하기 위한 참고도이다.6A to 6I are reference views for describing in detail the process of synthesizing the captured images of FIGS. 4A to 4D according to an exemplary embodiment of the present invention.

도 6a 내지 도 6i를 참조하면, 카메라는 이미지 합성 모드 진입시 분석된 결과에 따라 제2 이미지(도 6b)를 제1 이미지(도 6a)에 정렬하여 제3 이미지(도 6c)를 생성한다. 이때 도 2에서 전술한 해리슨, 헤시안 코너 검출 또는 DoG 방식을 통해 특징점을 추출하고, 일반화된 컬러 모멘트 또는 SIFT 등의 방법을 통해 추출된 특징점의 특징정보를 얻을 수 있다. 또한 도 3에서 전술한 NCC과 상관 계수 등을 이용한 포인트 매칭을 실행하고, 어파인 트랜스폼을 이용하여 포인트 매칭이 된 각각의 특징점 간의 변이 정보를 계산하며 계산된 변이 정보를 이용하여 제2 이미지(도 6b)를 제1 이미지(도 6a)에 정렬할 수 있으나 전술한 방법들 이외에 다양한 실시예가 가능하다.6A to 6I, the camera generates a third image (FIG. 6C) by aligning the second image (FIG. 6B) with the first image (FIG. 6A) according to the analysis result when entering the image synthesis mode. In this case, the feature points may be extracted through the Harrison, Hessian corner detection, or DoG method described above with reference to FIG. 2, and the feature information of the extracted feature points may be obtained through a generalized color moment or SIFT. In addition, in FIG. 3, point matching using the aforementioned NCC, correlation coefficient, and the like is performed, and disparity information is calculated between each feature point that is matched by a point transform using affine transform, and the second image ( 6B) may be aligned with the first image (FIG. 6A), but various embodiments are possible in addition to the methods described above.

이어서 백그라운드 이미지인 제1 이미지(도 6a)와 생성된 제3 이미지(도 6c)와의 차(差) 연산을 통해 인물 마스크들(도 6d)을 분할생성한다. 그리고 생성된 제3 이미지(도 6c)에서 얼굴 영역(도 6e)을 검출하여 분할생성된 인물 마스크들(도 6d) 중에서 검출된 얼굴 영역(도 6e)에 해당되는 인물 마스크(도 6f)를 추출한다. 분할생성된 인물 마스크들(도 6d) 중 검출된 얼굴 영역(도 6e)에 해당되는 인물 마스크(도 6f)의 추출은 도 2에서 전술한 블롭 분석을 이용할 수 있다. Subsequently, person masks (FIG. 6D) are divided and generated by performing a difference operation between the first image (FIG. 6A), which is a background image, and the generated third image (FIG. 6C). Then, the face region (FIG. 6E) is detected from the generated third image (FIG. 6C), and the portrait mask (FIG. 6F) corresponding to the detected face region (FIG. 6E) is extracted from the divided portrait masks (FIG. 6D). do. Extraction of the person mask (FIG. 6F) corresponding to the detected face area (FIG. 6E) among the segmented person masks (FIG. 6D) may use the blob analysis described above with reference to FIG. 2.

이어서 추출된 인물 마스크(도 6f)와 생성된 제3 이미지(도 6c)의 논리곱 연산을 통해 인물 이미지(도 6g)를 생성한다. 이러한 방식으로 생성된 인물 이미지(도 6g)는 백그라운드 이미지(도 6a)와 합성될 포어그라운드 이미지이며, 백그라운드 이미지(도 6a)와 합성되어 가이드 이미지(도 6h)를 생성한다. 가이드 이미지(도 6h)는 실시간으로 변하는 이미지이다. 이때 생성된 가이드 이미지(도 6h)를 이용하여 촬영자가 촬영하면 동일 위치에서 제1 이미지(도 6a) 및 제2 이미지(도 6b)가 합성된 단체사진(도 6i)을 생성할 수 있다.Next, a person image (FIG. 6G) is generated by performing an AND operation on the extracted person mask (FIG. 6F) and the generated third image (FIG. 6C). The person image (FIG. 6G) generated in this manner is a foreground image to be synthesized with the background image (FIG. 6A), and is synthesized with the background image (FIG. 6A) to generate the guide image (FIG. 6H). The guide image (FIG. 6H) is an image that changes in real time. In this case, when the photographer photographs using the generated guide image (FIG. 6H), the group image (FIG. 6I) in which the first image (FIG. 6A) and the second image (FIG. 6B) are combined at the same position may be generated.

도 7a 내지 도 7i는 본 발명의 다른 실시예에 따른 도 5a 내지 도 5d의 촬영이미지 합성과정을 구체적으로 설명하기 위한 참고도이다.7A to 7I are reference diagrams for describing in detail the process of synthesizing the captured images of FIGS. 5A to 5D according to another exemplary embodiment of the present invention.

도 7a 내지 도 7i를 참조하면, 카메라는 이미지 합성 모드 진입시 분석된 결과에 따라 제1 이미지(도 7a)를 제2 이미지(도 7b)에 정렬하여 제3 이미지(도 7c)를 생성한다. 이때 도 2에서 전술한 해리슨, 헤시안 코너 검출 또는 DoG 방식을 통해 특징점을 추출하고, 일반화된 컬러 모멘트 또는 SIFT 등의 방법을 통해 추출 된 특징점의 특징정보를 얻을 수 있다. 또한 도 3에서 전술한 NCC과 상관 계수 등을 이용한 포인트 매칭을 실행하고, 어파인 트랜스폼을 이용하여 포인트 매칭이 된 각각의 특징점 간의 변이 정보를 계산하여 계산된 변이 정보를 이용하여 제1 이미지(도 7a)를 제2 이미지(도 7b)에 정렬할 수 있으나 전술한 방법들 이외에 다양한 실시예가 가능하다.7A to 7I, the camera generates a third image (FIG. 7C) by aligning the first image (FIG. 7A) with the second image (FIG. 7B) according to the analysis result when entering the image synthesis mode. At this time, the feature point may be extracted through Harrison, Hessian corner detection, or DoG method described above with reference to FIG. 2, and the feature information of the extracted feature point may be obtained through a generalized color moment or SIFT. In addition, in FIG. 3, point matching using the NCC and correlation coefficients described above is performed, and the variation information between each feature point that is point matched using affine transform is calculated to use the first image ( Although FIG. 7A may be aligned with the second image (FIG. 7B), various embodiments are possible in addition to the methods described above.

이어서 백그라운드 이미지인 제2 이미지(도 7b)와 생성된 제3 이미지(도 7c)와의 차(差) 연산을 통해 인물 마스크들(도 7d)을 분할생성한다. 그리고 생성된 제3 이미지(도 7c)에서 얼굴 영역(도 7e)을 검출하여 분할생성된 인물 마스크들(도 7d) 중에서 검출된 얼굴 영역(도 7e)에 해당되는 인물 마스크(도 7f)를 추출한다. 분할생성된 인물 마스크들(도 7d) 중 검출된 얼굴 영역(도 7e)에 해당되는 인물 마스크(도 7f)의 추출은 도 2에서 전술한 블롭 분석을 이용할 수 있다. Subsequently, person masks (FIG. 7D) are divided and generated by performing a difference operation between the second image (FIG. 7B), which is a background image, and the generated third image (FIG. 7C). Then, the face region (FIG. 7E) is detected from the generated third image (FIG. 7C), and the person mask (FIG. 7F) corresponding to the detected face region (FIG. 7E) is extracted from the segmented-formed portrait masks (FIG. 7D). do. Extraction of the person mask (FIG. 7F) corresponding to the detected face area (FIG. 7E) among the segmented person masks (FIG. 7D) may use the blob analysis described above with reference to FIG. 2.

이어서 추출된 인물 마스크(도 7f)와 생성된 제3 이미지(도 7c)의 논리곱 연산을 통해 인물 이미지(도 7g)를 생성한다. 이러한 방식으로 생성된 인물 이미지(도 7g)는 백그라운드 이미지(도 7b)와 합성될 포어그라운드 이미지이며, 백그라운드 이미지(도 7b)와 합성되어 가이드 이미지(도 7h)를 생성한다. 가이드 이미지(도 7h)는 실시간으로 변하는 이미지이다. 이때 생성된 가이드 이미지(도 7h)를 이용하여 촬영자가 촬영하면 동일 위치에서 제1 이미지(도 7a) 및 제2 이미지(도 7b)가 합성된 단체사진(도 7i)을 생성할 수 있다.Subsequently, a person image (FIG. 7G) is generated by performing an AND operation on the extracted person mask (FIG. 7F) and the generated third image (FIG. 7C). The person image generated in this manner (FIG. 7G) is a foreground image to be synthesized with the background image (FIG. 7B), and is synthesized with the background image (FIG. 7B) to generate the guide image (FIG. 7H). The guide image (FIG. 7H) is an image that changes in real time. In this case, when the photographer photographs using the generated guide image (FIG. 7H), the group image (FIG. 7I) in which the first image (FIG. 7A) and the second image (FIG. 7B) are combined at the same location may be generated.

이제까지 본 발명에 대하여 그 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been described with reference to the embodiments. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.

도 1은 본 발명의 일 실시예에 따른 카메라의 구성도,1 is a block diagram of a camera according to an embodiment of the present invention,

도 2는 본 발명의 일 실시예에 따른 촬영이미지 합성방법을 도시한 흐름도,2 is a flowchart illustrating a method of synthesizing photographed images according to an embodiment of the present invention;

도 3은 도 2의 인물 이미지 분할방법을 상세히 도시한 흐름도,3 is a flowchart illustrating in detail a method of dividing a person image of FIG. 2;

도 4a 내지 도 4d는 본 발명의 일 실시예에 따른 촬영이미지 합성과정을 설명하기 위한 참고도,4A to 4D are reference diagrams for explaining a process of synthesizing photographed images according to an embodiment of the present invention;

도 5a 내지 도 5d는 본 발명의 다른 실시예에 따른 촬영이미지 합성과정을 설명하기 위한 참고도,5A to 5D are reference diagrams for explaining a process of synthesizing photographed images according to another embodiment of the present invention;

도 6a 내지 도 6i는 본 발명의 일 실시예에 따른 도 4a 내지 도 4d의 촬영이미지 합성과정을 구체적으로 설명하기 위한 참고도,6A to 6I are reference diagrams for describing in detail the process of synthesizing the captured images of FIGS. 4A to 4D according to an embodiment of the present invention;

도 7a 내지 도 7i는 본 발명의 다른 실시예에 따른 도 5a 내지 도 5d의 촬영이미지 합성과정을 구체적으로 설명하기 위한 참고도이다.7A to 7I are reference diagrams for describing in detail the process of synthesizing the captured images of FIGS. 5A to 5D according to another exemplary embodiment of the present invention.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

1 : 카메라 10 : 이미지 분석부1: camera 10: image analysis unit

20 : 이미지 분할부 30 : 이미지 제공부20: image segmentation unit 30: image providing unit

40 : 이미지 합성부40: image synthesis unit

Claims (11)

이미지 합성 모드에 진입되면 미리 촬영된 제1 이미지 및 상기 제1 이미지와 동일한 배경에서 카메라에 포착되고 있는 제2 이미지를 분석하는 단계;Analyzing a first image photographed in advance and a second image captured by the camera on the same background as the first image when the image combining mode is entered; 상기 분석된 결과에 따라 상기 제1 이미지 또는 상기 제2 이미지 중 어느 하나에서 인물 이미지를 분할하는 단계; 및Dividing a person image from either the first image or the second image according to the analyzed result; And 상기 분할된 인물 이미지를 상기 인물 이미지가 분할되지 않은 제1 이미지 또는 제2 이미지 중 어느 하나에 오버레이하여 촬영이미지 합성을 유도하는 가이드 이미지를 제공하는 단계를 포함하는 촬영이미지 합성방법.And overlaying the divided person image on either the first image or the second image in which the person image is not divided to provide a guide image for inducing the synthesis of the captured images. 제 1 항에 있어서,The method of claim 1, 상기 제공된 가이드 이미지에서 촬영자가 촬영하면, 상기 분할된 인물 이미지와 상기 인물 이미지가 분할되지 않은 제1 이미지 또는 제2 이미지를 상기 가이드 이미지가 제공된 위치에서 합성하는 단계를 더 포함하는 촬영이미지 합성방법.And when the photographer photographs the provided guide image, synthesizing the divided person image and the first image or the second image in which the person image is not divided at the position where the guide image is provided. 제 1 항에 있어서,The method of claim 1, 상기 제1 이미지는 백그라운드 이미지이며, 상기 제2 이미지로부터 분할된 인물 이미지는 상기 제1 이미지에 오버레이될 포어그라운드 이미지인 촬영이미지 합성방법.And the first image is a background image, and the person image divided from the second image is a foreground image to be overlaid on the first image. 제 1 항에 있어서,The method of claim 1, 상기 제2 이미지는 백그라운드 이미지이며, 상기 제1 이미지로부터 분할된 인물 이미지는 상기 제2 이미지에 오버레이될 포어그라운드 이미지인 촬영이미지 합성방법.And the second image is a background image, and the person image divided from the first image is a foreground image to be overlaid on the second image. 제 1 항에 있어서,The method of claim 1, 상기 각 이미지를 분석하는 단계는 상기 제1 이미지와 상기 제2 이미지의 특징을 나타내는 이미지 정보를 각각 추출하여 분석하는 촬영이미지 합성방법.The analyzing of each image may include extracting and analyzing image information representing characteristics of the first image and the second image, respectively. 제 1 항에 있어서, 상기 인물 이미지를 분할하는 단계는 The method of claim 1, wherein dividing the person image comprises: 상기 분석된 결과에 따라 상기 제1 이미지와 상기 제2 이미지가 정렬된 제3 이미지를 생성하는 단계; 및Generating a third image in which the first image and the second image are aligned according to the analyzed result; And 상기 생성된 제3 이미지로부터 상기 인물 이미지를 분할하는 단계를 포함하는 촬영이미지 합성방법.And dividing the person image from the generated third image. 제 6 항에 있어서, 상기 생성된 제3 이미지로부터 상기 인물 이미지를 분할하는 단계는The method of claim 6, wherein dividing the person image from the generated third image comprises: 상기 제1 이미지 또는 상기 제2 이미지 중 하나인 백그라운드 이미지와 상기 생성된 제3 이미지와의 차(差) 연산을 통해 인물 마스크들을 분할생성하는 단계;Dividing and generating person masks by performing a difference operation between a background image, which is one of the first image or the second image, and the generated third image; 상기 생성된 제3 이미지에서 얼굴 영역을 검출하여 상기 분할생성된 인물 마 스크들 중에서 상기 검출된 얼굴 영역에 해당되는 인물 마스크를 추출하는 단계; 및Detecting a face region from the generated third image and extracting a face mask corresponding to the detected face region from the segmented face masks; And 상기 추출된 인물 마스크와 상기 생성된 제3 이미지의 논리곱 연산을 통해 상기 인물 이미지를 분할하는 단계를 포함하는 촬영이미지 합성방법.And dividing the person image by performing an AND operation on the extracted person mask and the generated third image. 제 1 항에 있어서,The method of claim 1, 상기 가이드 이미지를 제공하는 단계는 상기 카메라에 포착되고 있는 상기 제2 이미지가 변함에 따라 상기 가이드 이미지를 실시간으로 제공하는 촬영이미지 합성방법.The providing of the guide image may include providing the guide image in real time as the second image captured by the camera changes. 이미지 합성 모드에 진입되면 미리 촬영된 제1 이미지 및 상기 제1 이미지와 동일한 배경에서 카메라에 포착되고 있는 제2 이미지를 분석하는 이미지 분석부;An image analyzer configured to analyze a first image photographed in advance and a second image captured by a camera on the same background as the first image when the image synthesis mode is entered; 상기 분석된 결과에 따라 상기 제1 이미지 또는 상기 제2 이미지 중 어느 하나에서 인물 이미지를 분할하는 이미지 분할부; 및An image dividing unit dividing a person image from either the first image or the second image according to the analyzed result; And 상기 분할된 인물 이미지를 상기 인물 이미지가 분할되지 않은 제1 이미지 또는 상기 제2 이미지 중 어느 하나에 오버레이하여 가이드 이미지를 제공하는 이미지 제공부를 포함하는 카메라.And an image provider configured to overlay the divided person image on one of the first image and the second image in which the person image is not divided to provide a guide image. 제 9 항에 있어서,The method of claim 9, 상기 제공된 가이드 이미지에서 촬영자가 촬영하면, 상기 분할된 인물 이미 지와 상기 인물 이미지가 분할되지 않은 제1 이미지 또는 제2 이미지를 상기 가이드 이미지가 제공된 위치에서 합성하는 이미지 합성부를 더 포함하는 카메라.And a photographing unit configured to synthesize the divided person image and the first image or the second image in which the person image is not divided, at the position where the guide image is provided when the photographer photographs the provided guide image. 제 9 항에 있어서,The method of claim 9, 상기 이미지 제공부는 상기 카메라에 포착되고 있는 상기 제2 이미지가 변함에 따라 상기 가이드 이미지를 실시간으로 제공하는 카메라.And the image providing unit provides the guide image in real time as the second image captured by the camera changes.
KR1020080040485A 2008-04-30 2008-04-30 Camera and method for compounding picked-up image KR101441585B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080040485A KR101441585B1 (en) 2008-04-30 2008-04-30 Camera and method for compounding picked-up image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080040485A KR101441585B1 (en) 2008-04-30 2008-04-30 Camera and method for compounding picked-up image

Publications (2)

Publication Number Publication Date
KR20090114707A true KR20090114707A (en) 2009-11-04
KR101441585B1 KR101441585B1 (en) 2014-09-25

Family

ID=41555929

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080040485A KR101441585B1 (en) 2008-04-30 2008-04-30 Camera and method for compounding picked-up image

Country Status (1)

Country Link
KR (1) KR101441585B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110054175A (en) * 2009-11-17 2011-05-25 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR20130131955A (en) * 2012-05-25 2013-12-04 엘지전자 주식회사 Mobile terminal and control method thereof
KR101514346B1 (en) * 2014-02-14 2015-04-22 한국기술교육대학교 산학협력단 Apparatus and method for making a composite photograph
CN116744124A (en) * 2023-08-16 2023-09-12 广州方图科技有限公司 Self-help shooting equipment background generation method and device, electronic equipment and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11187314A (en) * 1997-12-22 1999-07-09 Seiko Epson Corp Image forming and printing device with background image
JP3856211B2 (en) * 2001-12-14 2006-12-13 オムロンエンタテインメント株式会社 Image printing apparatus and method, and program
JP2005005960A (en) 2003-06-11 2005-01-06 Fuji Photo Film Co Ltd Apparatus, system, and method for image processing
JP4151543B2 (en) 2003-09-26 2008-09-17 カシオ計算機株式会社 Image output apparatus, image output method, and image output processing program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110054175A (en) * 2009-11-17 2011-05-25 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR20130131955A (en) * 2012-05-25 2013-12-04 엘지전자 주식회사 Mobile terminal and control method thereof
KR101514346B1 (en) * 2014-02-14 2015-04-22 한국기술교육대학교 산학협력단 Apparatus and method for making a composite photograph
CN116744124A (en) * 2023-08-16 2023-09-12 广州方图科技有限公司 Self-help shooting equipment background generation method and device, electronic equipment and storage medium
CN116744124B (en) * 2023-08-16 2023-11-10 广州方图科技有限公司 Shooting method and equipment of self-service shooting equipment, electronic equipment and storage medium

Also Published As

Publication number Publication date
KR101441585B1 (en) 2014-09-25

Similar Documents

Publication Publication Date Title
US9692964B2 (en) Modification of post-viewing parameters for digital images using image region or feature information
US11115638B2 (en) Stereoscopic (3D) panorama creation on handheld device
US7349020B2 (en) System and method for displaying an image composition template
US9129381B2 (en) Modification of post-viewing parameters for digital images using image region or feature information
US7024054B2 (en) Method and system for generating a foreground mask for a composite image
JP4865038B2 (en) Digital image processing using face detection and skin tone information
US8675991B2 (en) Modification of post-viewing parameters for digital images using region or feature information
US8294748B2 (en) Panorama imaging using a blending map
EP2791899B1 (en) Method and apparatus for image capture targeting
JP5389697B2 (en) In-camera generation of high-quality composite panoramic images
US20060120712A1 (en) Method and apparatus for processing image
US20100302595A1 (en) Image Reproducing Apparatus And Imaging Apparatus
US20120019613A1 (en) Dynamically Variable Stereo Base for (3D) Panorama Creation on Handheld Device
US20110141224A1 (en) Panorama Imaging Using Lo-Res Images
US8687071B2 (en) Composite image creating method as well as program, recording medium, and information processing apparatus for the method
JP5378135B2 (en) Image layout determining method, program thereof, and information processing apparatus
EP1646235A2 (en) Moving picture recording apparatus and moving picture reproducing apparatus
TW200828988A (en) System and method for image evaluation
EP2545411A1 (en) Panorama imaging
US20090034953A1 (en) Object-oriented photographing control method, medium, and apparatus
JP7476375B2 (en) Information processing device, information processing method, and program
JP2004361989A (en) Image selection system, image selection program, and image selection method
KR101441585B1 (en) Camera and method for compounding picked-up image
JP2007163367A (en) Camera information analyzer
EP2200275B1 (en) Method and apparatus of displaying portrait on a display

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170817

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180820

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190814

Year of fee payment: 6