KR102062982B1 - Method for video synthesis - Google Patents
Method for video synthesis Download PDFInfo
- Publication number
- KR102062982B1 KR102062982B1 KR1020180054974A KR20180054974A KR102062982B1 KR 102062982 B1 KR102062982 B1 KR 102062982B1 KR 1020180054974 A KR1020180054974 A KR 1020180054974A KR 20180054974 A KR20180054974 A KR 20180054974A KR 102062982 B1 KR102062982 B1 KR 102062982B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- scanner
- module
- scan
- control device
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 230000015572 biosynthetic process Effects 0.000 title description 13
- 238000003786 synthesis reaction Methods 0.000 title description 13
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 37
- 239000002131 composite material Substances 0.000 claims abstract description 17
- 238000006073 displacement reaction Methods 0.000 claims description 10
- 230000001815 facial effect Effects 0.000 claims description 10
- 238000005259 measurement Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 7
- 238000001308 synthesis method Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 238000005286 illumination Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000005226 mechanical processes and functions Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G06K9/00335—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10008—Still image; Photographic image from scanner, fax or copier
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
Abstract
본 발명의 실시예에 따르는 영상 합성 방법은, 제1 스캐너 및 제2 스캐너로 스캔 대상 영역을 1차로 각각 스캔하여 제1 및 제2 스캔정보를 생성하고, 생성한 각 스캔정보를 제어부의 저장모듈에 저장하는 제1 단계; 상기 제1 단계로부터 상기 제어장치의 제1 판단모듈에 의해 상기 제1 및 제2 스캔정보 간에 서로 비대응되는 비대응 정보를 판단하며, 상기 판단에 따라 상기 비대응 정보를 제거하는 제2 단계; 상기 제2 단계로부터 상기 제어장치의 제1 합성모듈에 의해 상기 비대응 정보가 제거된 상기 제1 및 제2 스캔정보를 상호 합성하여 배경영상정보를 생성하는 제3 단계; 상기 제3 단계 이후, 상기 제1 스캐너 및 제2 스캐너로 상기 스캔 대상 영역을 2차로 각각 스캔하여 제3 및 제4 스캔정보를 생성하고, 상기 제어장치의 제2 판단모듈에 의해 상기 제3 및 제4 스캔정보와, 상기 배경영상정보 간에 서로 비대응되는 비대응 객체를 판단하며, 상기 판단에 따라 상기 비대응 객체를 추출하는 제4 단계; 및 상기 제4 단계로부터 추출된 상기 비대응 객체를 상기 제어장치의 제2 합성모듈에 의해 상기 저장모듈에 기저장된 합성영상정보에 합성하여 합성된 합성영상을 상기 제어장치의 디스플레이모듈을 통해 출력하는 제5 단계;를 포함한다.In an image synthesizing method according to an embodiment of the present invention, the first and second scanners respectively scan a scan target area to generate first and second scan information, and store the generated scan information in the storage module of the controller. Storing in a first step; A second step of determining non-corresponding information between the first and second scan information by the first determination module of the control device from the first step, and removing the non-corresponding information according to the determination; A third step of synthesizing the first and second scan information from which the non-corresponding information is removed by the first synthesizing module of the control device from the second step to generate background image information; After the third step, the third and fourth scan information are generated by secondly scanning the scan target area with the first scanner and the second scanner, respectively, and the third and fourth are determined by the second determination module of the control device. Determining a non-corresponding object between the fourth scan information and the background image information, and extracting the non-corresponding object according to the determination; And synthesizing the non-corresponding object extracted from the fourth step into the composite image information previously stored in the storage module by the second synthesizing module of the control device, and outputting the synthesized composite image through the display module of the control apparatus. And a fifth step.
Description
본 발명은 영상 합성 방법에 관한 것으로, 보다 상세하게는 간단한 구성으로 영상 합성이 가능하도록 하는 영상 합성 방법에 관한 것이다. The present invention relates to an image synthesizing method, and more particularly, to an image synthesizing method which enables an image synthesizing with a simple configuration.
일반적으로 크로마키(Chroma Key) 기법을 이용한 영상 합성방법은 피사체를 촬영한 영상과 미리 설정된 배경영상(동영상 또는 사진이미지)를 합성하여 하나의 영상으로 편집되도록 피사체를 촬영한 동영상에서 특정한 색을 키로 지정한 후 주 영상에서 키에 해당하는 화소를 다른 영상으로 대체하는 기술이다.In general, an image compositing method using a chroma key technique synthesizes an image of a subject and a predetermined background image (movie or photo image), and edits the image into a specific image using a specific color key. After the designation, the pixel corresponding to the key in the main image is replaced with another image.
일 예로, 종래의 상기 크로마키를 이용한 영상물 제작시스템의 경우 배경스크린, 카메라, 적외선 센서, 마이크로폰, 휴대용 단말기 및 영상제작 장치를 포함하여 구성되며 이때, 상기 배경스크린은 동영상의 촬영시 피사체 모델의 등 뒤에 설치되는 것으로, 후에 크로마키 기법에 의한 영상 편집이 가능하도록 단색 배경을 사용하되 일반적으로 청색으로 이루어진 블루스크린(Blue screen)을 적용되는 것을 특징으로 하고 있다.For example, the conventional image production system using the chroma key is configured to include a background screen, a camera, an infrared sensor, a microphone, a portable terminal, and an image production device. It is installed at the back, and is characterized by applying a blue screen, which is generally made of blue, using a solid background so that image editing by chroma key technique can be performed later.
그러나, 전술한 종래기술의 경우 특정색상을 추출하기 위해 다양한 형태의 조명장비가 사용되므로 많은 비용이 소모되는 문제가 있으며, 일정수준의 조도가 유지된 특정장소에서만 촬영을 해야하므로 활용에 있어서 제약이 큰 문제점이 있다. However, in the above-described prior art, various types of lighting equipment are used to extract a specific color, and thus, there is a problem in that it costs a lot of money. There is a big problem.
이와 같은 문제를 해결하기 위한 본 발명은 간단한 구성으로 영상 합성이 가능하게 하여 비용을 절감할 수 있으며, 조도 차이가 잦은 환경에서도 원활한 영상 합성을 수행할 수 있도록 하는 영상 합성 방법을 제공하는 것에 그 목적이 있다.The present invention for solving such a problem is possible to reduce the cost by enabling the image synthesis with a simple configuration, and to provide an image synthesis method that can perform a smooth image synthesis even in an environment with frequent illumination differences There is this.
본 발명의 목적은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to those mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.
이와 같은 목적을 달성하기 위한 본 발명의 실시예에 따르는 영상 합성 방법은, 제1 스캐너 및 제2 스캐너로 스캔 대상 영역을 1차로 각각 스캔하여 제1 및 제2 스캔정보를 생성하고, 생성한 각 스캔정보를 제어부의 저장모듈에 저장하는 제1 단계; 상기 제1 단계로부터 상기 제어장치의 제1 판단모듈에 의해 상기 제1 및 제2 스캔정보 간에 서로 비대응되는 비대응 정보를 판단하며, 상기 판단에 따라 상기 비대응 정보를 제거하는 제2 단계; 상기 제2 단계로부터 상기 제어장치의 제1 합성모듈에 의해 상기 비대응 정보가 제거된 상기 제1 및 제2 스캔정보를 상호 합성하여 배경영상정보를 생성하는 제3 단계; 상기 제3 단계 이후, 상기 제1 스캐너 및 제2 스캐너로 상기 스캔 대상 영역을 2차로 각각 스캔하여 제3 및 제4 스캔정보를 생성하고, 상기 제어장치의 제2 판단모듈에 의해 상기 제3 및 제4 스캔정보와, 상기 배경영상정보 간에 서로 비대응되는 비대응 객체를 판단하며, 상기 판단에 따라 상기 비대응 객체를 추출하는 제4 단계; 및 상기 제4 단계로부터 추출된 상기 비대응 객체를 상기 제어장치의 제2 합성모듈에 의해 상기 저장모듈에 기저장된 합성영상정보에 합성하여 합성된 합성영상을 상기 제어장치의 디스플레이모듈을 통해 출력하는 제5 단계;를 포함하고, 상기 제3 단계에서, 상기 제1 스캐너의 스캔정보는 비대응 객체의 깊이정보를 포함하고, 상기 제2 스캐너의 스캔정보는 상기 비대응 객체의 안면정보와 바디정보를 포함하고, 상기 제4 단계에서, 상기 제2 판단모듈은 상기 비대응 객체를 판단할 때 상기 비대응 객체의 안면정보와 바디정보의 유무를 기준으로 하여 상기 배경영상정보로부터 상기 비대응 객체를 추출한다.According to an embodiment of the present invention for achieving the above object, the first and second scanners to scan the scan target area first to generate the first and second scan information, respectively, A first step of storing the scan information in a storage module of the controller; A second step of determining non-corresponding information between the first and second scan information by the first determination module of the control device from the first step, and removing the non-corresponding information according to the determination; A third step of synthesizing the first and second scan information from which the non-corresponding information is removed by the first synthesizing module of the control device from the second step to generate background image information; After the third step, the third and fourth scan information are generated by secondly scanning the scan target area with the first scanner and the second scanner, respectively, and the third and fourth are determined by the second determination module of the control device. Determining a non-corresponding object between the fourth scan information and the background image information, and extracting the non-corresponding object according to the determination; And synthesizing the non-corresponding object extracted from the fourth step into the composite image information previously stored in the storage module by the second synthesizing module of the control device, and outputting the synthesized composite image through the display module of the control apparatus. And a fifth step; wherein, in the third step, the scan information of the first scanner includes depth information of the non-corresponding object, and the scan information of the second scanner is facial information and body information of the non-corresponding object. And in the fourth step, the second determination module determines the non-corresponding object from the background image information based on the presence or absence of face information and body information of the non-corresponding object when determining the non-corresponding object. Extract.
또한, 상기 제4 단계는 상기 제어장치의 모션제어모듈에 의해 상기 비대응 객체의 변위 값이 기설정된 특정 변위 값에 대응되는지 여부를 측정하고, 측정에 따라 대응되면 기저장된 복수의 상기 합성영상정보 중, 선택되는 어느 하나의 합성영상정보로 변환하도록 제공하는 단계를 포함하여 이루어지는 것을 특징으로 하는 영상 합성 방법을 제공할 수 있다.The fourth step may include determining whether the displacement value of the non-corresponding object corresponds to a predetermined specific displacement value by a motion control module of the control device. Among them, it may provide a method for synthesizing the image comprising the step of providing to convert to any one of the selected composite image information.
또한, 상기 제5 단계는, 상기 제1 스캐너 및 제2 스캐너에 구비되는 제스쳐모듈에 의해 스캔 대상 영역에 내에 존재하는 피사체의 제스쳐를 감지하고, 감지된 제스쳐가 기저장된 제스쳐에 해당되면, 상기 제스쳐에 따라 기저장된 객체를 상기 합성영상정보에 합성하여 합성된 합성영상을 상기 디스플레이모듈을 통해 출력하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 영상 합성 방법을 제공할 수 있다.In the fifth step, the gestures of the first scanner and the second scanner detect the gesture of the subject in the scan target area, and if the detected gesture corresponds to the pre-stored gesture, the gesture is detected. The method may further include synthesizing a previously stored object with the synthesized image information and outputting the synthesized synthesized image through the display module.
또한, 상기 제5 단계는, 상기 제어장치의 제어에 따라 상기 제1 스캐너 및 제2 스캐너에 구비되는 하나 이상의 발광모듈의 광 조사에 의해 상기 디스플레이모듈을 통해 출력되는 합성영상 중, 상기 비대응 객체의 명암 또는 밝기의 값이 일정 값을 만족하도록 상기 스캔 영역의 조도를 조절하는 단계를 더 포함하는 것을 특징으로 하는 영상 합성 방법을 제공할 수 있다.In addition, the fifth step, the non-corresponding object of the composite image output through the display module by the light irradiation of one or more light emitting modules provided in the first scanner and the second scanner under the control of the control device The method may further include adjusting the illuminance of the scan area such that the intensity or brightness of the light satisfies a predetermined value.
상기 제5 단계는, 상기 제1 스캐너 및 제2 스캐너에 공급되는 외부 전원이 차단될 경우, 상기 제1 스캐너 및 제2 스캐너에 구비되는 비상전원공급모듈에 의해 가용전원을 공급하도록 하고, 상기 제1 스캐너 및 제2 스캐너로부터 전원 공급 차단에 따른 알림신호를 상기 제어장치의 제어모듈이 전송받으면, 상기 알림신호에 해당하는 정보가 상기 디스플레이모듈에 표시되도록 제공하는 단계를 포함하여 이루어질 수 있다.In the fifth step, when the external power supplied to the first scanner and the second scanner is cut off, the available power is supplied by the emergency power supply module provided in the first scanner and the second scanner. When the control module of the control device receives a notification signal according to the power supply cut off from the first scanner and the second scanner, the information corresponding to the notification signal may be displayed on the display module.
이와 같은 본 발명에 의하면, 간단한 구성으로 영상 합성이 가능하게 하여 비용을 절감할 수 있으며, 조도 차이가 잦은 환경에서도 원활한 영상 합성을 수행할 수 있도록 하는 효과를 가진다.According to the present invention, it is possible to reduce the cost by enabling the image synthesis with a simple configuration, it has the effect of performing a smooth image synthesis even in an environment with frequent illumination differences.
또한, 본 발명은 객체의 안면정보와 바디정보를 이용하여 배경으로부터 영상을 추출하기 때문에 객체와 배경영상의 경계면을 보다 명확하게 설정할 수 있어, 보다 온전하게 객체를 추출할 수 있다.In addition, since the present invention extracts an image from the background using facial information and body information of the object, the boundary between the object and the background image can be set more clearly, and the object can be extracted more completely.
본 발명의 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects that are not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 실시예에 따른 영상 합성 방법을 수행하기 위한 영상 합성 시스템의 전체 구성을 개략적으로 나타낸 구성 블록도.
도 2는 본 발명의 실시예에 따른 영상 합성 방법의 순서도.
도 3은 도 2의 순서에 따른 영상 합성 방법의 예시도.
도 4는 본 발명의 실시예에 따르는 영상 합성 방법에서 안면정보를 추출하는 일 예를 도시한 도면.
도 5는 본 발명의 실시예에 따르는 영상 합성 방법에서 바디정보를 추출하는 일 예를 도시한 도면.1 is a block diagram schematically showing the overall configuration of an image synthesizing system for performing an image synthesizing method according to an embodiment of the present invention;
2 is a flowchart of an image synthesizing method according to an embodiment of the present invention.
3 is an exemplary view illustrating an image synthesis method according to the procedure of FIG. 2.
4 is a diagram illustrating an example of extracting facial information in an image synthesizing method according to an embodiment of the present invention.
5 is a diagram illustrating an example of extracting body information in an image synthesizing method according to an embodiment of the present invention.
본 발명의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 뒤에 설명이 되는 실시 예들을 참조하면 명확해질 것이다. 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 뒤에 설명되는 용어들은 본 발명에서의 구조, 역할 및 기능 등을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다.Objects and effects of the present invention, and technical configurations for achieving them will be apparent with reference to the embodiments described later in detail in conjunction with the accompanying drawings. In describing the present invention, when it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. The terms to be described later are terms defined in consideration of structures, roles, functions, and the like in the present invention, which may vary according to intentions or customs of users and operators.
그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 오로지 특허청구범위에 기재된 청구항의 범주에 의하여 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.However, the present invention is not limited to the embodiments disclosed below but may be implemented in various forms. The present embodiments are merely provided to complete the disclosure of the present invention, and to fully inform the scope of the invention to those skilled in the art, and the present invention is described only in the claims. It is only defined by the scope of the claims. Therefore, the definition should be made based on the contents throughout the specification.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is said to "include" a certain component, it means that it can further include other components, without excluding other components unless specifically stated otherwise.
또한, 명세서에 기재된 "…유닛", "…부" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In addition, the terms “… unit”, “… unit” described in the specification mean a unit that processes at least one function or operation, which may be implemented by hardware or software or a combination of hardware and software.
한편, 본 발명의 실시 예에 있어서, 각 구성요소들, 기능 블록들 또는 수단들은 하나 또는 그 이상의 하부 구성요소로 구성될 수 있으며, 각 구성요소들이 수행하는 전기, 전자, 기계적 기능들은 전자회로, 집적회로, ASIC(Application Specific Integrated Circuit) 등 공지된 다양한 소자들 또는 기계적 요소들로 구현될 수 있으며, 각각 별개로 구현되거나 2 이상이 하나로 통합되어 구현될 수도 있다.On the other hand, in an embodiment of the present invention, each of the components, functional blocks or means may be composed of one or more sub-components, the electrical, electronic, mechanical functions performed by each component is an electronic circuit, It may be implemented by various known elements or mechanical elements such as an integrated circuit, an application specific integrated circuit (ASIC), each of which may be implemented separately, or two or more may be integrated into one.
이하에서는 본 발명의 영상 합성 방법에 대해서 첨부된 도면을 참조하면서 구체적으로 설명하기로 한다.Hereinafter, the image synthesis method of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 실시예에 따른 영상 합성 방법을 수행하기 위한 영상 합성 시스템의 전체 구성을 개략적으로 나타낸 구성 블록도, 도 2는 본 발명의 실시예에 따른 영상 합성 방법의 순서도, 도 3은 도 2의 순서에 따른 영상 합성 방법의 예시도이고, 도 4는 본 발명의 실시예에 따르는 영상 합성 방법에서 안면정보를 추출하는 일 예를 도시한 도면이고, 도 5는 본 발명의 실시예에 따르는 영상 합성 방법에서 바디정보를 추출하는 일 예를 도시한 도면이다. 1 is a block diagram schematically illustrating the overall configuration of an image synthesizing system for performing an image synthesizing method according to an embodiment of the present invention, FIG. 2 is a flowchart of an image synthesizing method according to an embodiment of the present invention, and FIG. 2 is an exemplary view illustrating an image synthesis method according to the procedure of FIG. 2, and FIG. 4 is a diagram illustrating an example of extracting facial information in an image synthesis method according to an embodiment of the present invention, and FIG. 5 is an embodiment of the present invention. FIG. 1 is a diagram illustrating an example of extracting body information in the image synthesis method.
도 1 내지 도 3을 참고하면, 본 발명의 실시예에 따른 영상 합성 방법은 간단한 구성으로 영상 합성이 가능하게 하여 비용을 절감할 수 있으며, 조도 차이가 잦은 환경에서도 원활한 영상 합성을 수행하도록 하기 위해 영상 합성 시스템을 이용한 영상 합성 방법에 있어서, 제1 단계(S10) 내지 제5 단계(S50)를 포함하여 진행되는 것이다.1 to 3, the image synthesis method according to an embodiment of the present invention can reduce the cost by enabling the image synthesis with a simple configuration, in order to perform a smooth image synthesis even in an environment with a large illumination difference In the image synthesizing method using the image synthesizing system, the process comprises the first step (S10) to the fifth step (S50).
상기 영상 합성 시스템은 제1 스캐너(1)와, 제2 스캐너(2) 및 제어장치(3)를 포함하여 구성하여둔 것이며, 상기 영상 합성 방법을 수행하기 위한 상기 영상 합성 시스템의 세부 구성요소에 관한 설명은 영상 합성 방법의 설명과 함께 후술한다.The image synthesizing system includes a first scanner 1, a second scanner 2, and a control device 3, and includes a detailed component of the image synthesizing system for performing the image synthesizing method. The description thereof will be described later together with the description of the image synthesizing method.
상기 제1 단계(S10)는 상기 제1 스캐너(1) 및 제2 스캐너(2)로 스캔 대상 영역을 각각 스캔하여 제1 및 제2 스캔정보를 생성하고, 생성한 각 스캔정보를 제어부의 저장모듈(306)에 저장하는 단계인 것이다. The first step (S10) is to scan the scan target area with the first scanner (1) and the second scanner (2) to generate first and second scan information, respectively, and to store the generated scan information in the controller Storing in the module 306.
상기 제1 스캐너(1)는 3차원 스캐닝이 가능한 3차원 스캐너 모듈로 제공될 수 있다. 제1 스캐너는 적외선을 이용하여 제1 스캐너와 객체 간의 거리를 측정하여 표시한다. 특정 패턴의 광을 피사체에 조사하고, 피사체로부터 반사되어 수신된 광으로부터 투사패턴과의 왜곡 정도를 연산하여 깊이(depth) 정보를 산출하고, 산출될 깊이 정보를 이용하여 3차원적으로 이미지를 맵핑하는 방식으로 3차원 영상정보를 생성한다.The first scanner 1 may be provided as a three-dimensional scanner module capable of three-dimensional scanning. The first scanner measures and displays a distance between the first scanner and the object by using infrared rays. Irradiation of a specific pattern of light onto the subject, calculating the distortion degree with the projection pattern from the light reflected from the subject, calculating depth information, and mapping the image in three dimensions using the calculated depth information To generate 3D image information.
상기 제2 스캐너(2)는 2차원 스캐너 모듈(RGB 스캐너)로 제공될 수 있다. 도 4와 도 5를 참조하면, 제2 스캐너는 객체를 촬영한 영상에서 안면 정보를 추출하도록 형성된다. 안면이 인식되면 제2 스캐너는 대상의 바디 정보를 추출한다. 예를 들어, 영상 상의 객체로부터 안면 정보를 추출하면 안면을 제외한 나머지 바디 정보를 추출한다. 바디 정보는, 가슴, 팔 또는 다리의 길이, 위치 등의 정보를 포함한다. 안면 정보의 추출에 필요한 정보는 네트워크로 연결된 별도의 서버로부터 전달받을 수 있다.The second scanner 2 may be provided as a two-dimensional scanner module (RGB scanner). 4 and 5, the second scanner is configured to extract facial information from an image of an object. When the face is recognized, the second scanner extracts body information of the object. For example, when face information is extracted from an object on an image, body information other than face is extracted. Body information includes information such as the length, position of the chest, arms or legs. Information necessary for extracting facial information may be delivered from a separate server connected through a network.
상기 제어장치(3)는 상기 제1 스캐너(1) 및 제2 스캐너(2)의 전반적인 작동을 제어하도록 구성된 것으로, 바람직하게는 상기 제어장치(3)에 구비되는 제어모듈(308)에 의해 제어될 수 있다.The control device 3 is configured to control the overall operation of the first scanner 1 and the second scanner 2, preferably controlled by the control module 308 provided in the control device 3. Can be.
상기 저장모듈(306)은 상기 제1 및 제2 스캔정보의 저장이 가능하도록 구비되는 통상 저장모듈로 제공될 수가 있다.The storage module 306 may be provided as a normal storage module provided to store the first and second scan information.
상기 제1 스캔정보는 상기 제1 스캐너(1)의 상기 스캔 대상 영역의 스캐닝을 통해 획득되는 3D 영상정보일 수 있으며, 상기 제2 스캔정보는 상기 제2 스캐너(2)의 상기 스캔 대상 영역의 스캐닝을 통해 획득되는 2D 색상의 영상정보일 수 있다.The first scan information may be 3D image information obtained through scanning of the scan target area of the first scanner 1, and the second scan information may be of the scan target area of the second scanner 2. The image information may be 2D color obtained through scanning.
상기 스캔 대상 영역은 상기 제1 스캐너(1) 및 제2 스캐너(2)를 통해 사용자가 스캐닝하고자 하는 특정 영역과, 특정 영역 내에 존재하는 동적 혹은 정적 피사체를 포함하는 것일 수 있다.The scan target area may include a specific area to be scanned by the user through the first scanner 1 and the second scanner 2 and a dynamic or static subject existing in the specific area.
상기 제2 단계(S20)는 상기 제1 단계(S10)로부터 상기 제어장치(3)에 구비되는 제1 판단모듈(301)에 의해 상기 제1 및 제2 스캔정보 간에 서로 비대응되는 비대응 정보를 판단하며, 상기 판단에 따라 상기 비대응 정보를 제거하도록 제공되는 단계일 수 있다.The second step S20 is non-corresponding information that is incompatible with each other between the first and second scan information by the first determination module 301 included in the control device 3 from the first step S10. And determining the non-corresponding information according to the determination.
상기 비대응 정보는 제1 및 제2 스캔정보 간에 상호 비합치되는 정보 예컨데, 상기 제1 및 제2 스캔정보가 영상일 경우, 상호 비합치되는 영상 영역에 관한 객체정보를 의미할 수 있다.The non-corresponding information may be information that is inconsistent between the first and second scan information. For example, when the first and second scan information are images, the non-corresponding information may refer to object information about an image region that is inconsistent with each other.
상기 제3 단계(S30)는 상기 제2 단계(S20)로부터 상기 제어장치(30)에 구비되는 제1 합성모듈(303)에 의해 상기 비대응 정보가 제거된 상기 제1 및 제2 스캔정보를 상호 합성하여 합성에 따른 배경영상정보를 생성하도록 제공되는 단계일 수 있다.In the third step S30, the first and second scan information from which the non-corresponding information has been removed by the first synthesizing module 303 included in the control device 30 is obtained from the second step S20. And synthesizing with each other to generate background image information according to the synthesis.
상기 배경영상정보는 상기 스캔 대상 영역을 스캐닝함에 따라 생성된 영상을 포함하는 제1 스캔정보와 제2 스캔정보들을 서로 합성한 영상정보를 의미할 수 있다.The background image information may mean image information obtained by synthesizing first scan information and second scan information including an image generated by scanning the scan target region.
상기 제4 단계(S40)는 상기 제3 단계(S30) 이후, 상기 제1 스캐너(1) 및 제2 스캐너(2)로 스캔 대상 영역을 각각 스캔하여 제3 및 제4 스캔정보를 생성하고, 상기 제어장치(3)에 구비되는 제2 판단모듈(302)에 의해 상기 제3 및 제4 스캔정보와, 상기 배경영상정보 간에 서로 비대응되는 비대응 객체를 판단하며, 상기 판단에 따라 상기 비대응 객체를 추출하도록 제공되는 단계일 수 있다.In the fourth step S40, after the third step S30, the scan target area is scanned by the first scanner 1 and the second scanner 2, respectively, to generate third and fourth scan information. The non-corresponding object between the third and fourth scan information and the background image information is determined by the second determination module 302 included in the control device 3, and the non-corresponding object is determined according to the determination. It may be a step provided to extract the corresponding object.
상기 비대응 객체는 상기 스캔 대상 영역 내에 위치하는 피사체로서, 사용자에 의해 선택되는 영상 객체를 의미할 수 있다.The non-corresponding object may be an object located in the scan target area and may mean an image object selected by a user.
또한, 상기 제4 단계(S40)는 상기 제어장치(3)에 구비되는 모션제어모듈(307)에 의해 상기 비대응 객체의 변위 값이 기설정된 특정 변위 값에 대응되는지 여부를 측정하고, 측정에 따라 대응되면 기저장된 복수의 상기 합성영상정보 중, 선택되는 어느 하나의 합성영상정보로 변환하도록 제공하는 단계를 포함하여 이루어질 수 있다. In addition, the fourth step (S40) is measured by the motion control module 307 provided in the control device 3 determines whether the displacement value of the non-corresponding object corresponds to a predetermined specific displacement value, If so, it may include a step of providing to convert any one of the plurality of pre-stored composite image information, the selected composite image information.
예컨데, 상기 제4 단계(S40)는 상기 스캔 대상 영역에 위치한 피사체의 움직임에 따라 상기 비대응 객체에 대한 변위값을 실시간으로 측정하고, 측정된 변위값이 기설정된 특정 변위 값에 대응되면, 기설정된 프로그램에 따라 복수개의 합성영상정보 중, 사용자에 의해 미리 선택된 어느 하나의 합성영상정보로 변환이 가능하도록 제공됨에 따라, 결과적으로 피사체로부터 특정 움직임에 따라 비대응 객체에 합성되는 합성영상정보를 쉽게 변경할 수 있게 된다.For example, the fourth step (S40) measures the displacement value for the non-compliant object in real time according to the movement of the subject located in the scan target area, and if the measured displacement value corresponds to a predetermined specific displacement value, According to a set program, a plurality of composite image information is provided to be converted into one of the composite image information selected in advance by the user. As a result, composite image information synthesized to a non-compliant object according to a specific movement from a subject can be easily converted. You can change it.
여기서 제3 스캔 정보는 비대응 객체의 깊이정보를 포함하고, 제4 스캔정보는 비대응 객체의 안면정보와 바디정보를 포함한다. 그리고, 제2 판단모듈은 비대응 객체를 판단할 때 비대응 객체의 안면정보와 바디정보의 유무를 기준으로 하여 배경영상정보로부터 비대응 객체를 추출한다. 안면정보와 바디정보는 네트워크로 연결된 서버의 빅데이터를 이용할 수 있다. 다양한 안면정보를 수집하여 비교함으로써, 객체가 인간일 때 제2 스캐너를 통해 획득한 영상으로부터 객체를 보다 용이하게 인지할 수 있다. 이로 인해, 비대응 객체와 배경영상과의 경계면의 판단이 보다 용이해져 비대응 객체를 보다 온전하게 추출할 수 있다.The third scan information includes depth information of the non-corresponding object, and the fourth scan information includes facial information and body information of the non-corresponding object. When determining the non-corresponding object, the second determination module extracts the non-corresponding object from the background image information based on the presence or absence of face information and body information of the non-corresponding object. The facial information and body information may use big data of a networked server. By collecting and comparing various facial information, the object can be more easily recognized from an image obtained through the second scanner when the object is a human. As a result, it is easier to determine the interface between the non-corresponding object and the background image, so that the non-corresponding object can be extracted more intact.
객체가 인간일 때, 객체를 보다 빨리 인지할 수 있으며, 안면을 제외한 나머지 바디 부분의 정보를 추측함으로써, 객체와 배경을 보다 쉽게 분리할 수 있다.When an object is human, the object can be recognized more quickly, and it is easier to separate the object from the background by guessing the information of the body parts except the face.
상기 제5 단계(S50)는 상기 제4 단계(S40)로부터 추출된 상기 비대응 객체를 상기 제어장치(3)에 구비되는 제2 합성모듈(304)에 의해 상기 저장모듈(306)에 기저장된 합성영상정보에 합성하여 합성된 합성영상을 상기 제어장치(3)에 구비되는 디스플레이모듈(305)을 통해 실시간으로 출력하도록 제공하는 단계일 수 있다.In the fifth step S50, the non-corresponding object extracted from the fourth step S40 is pre-stored in the storage module 306 by the second synthesizing module 304 provided in the control device 3. And synthesizing the synthesized image information to the synthesized image information through the display module 305 provided in the control device 3 in real time.
상기 디스플레이모듈(305)은 통상 영상출력이 가능하도록 제공되는 통상 디스플레이 수단으로 구현될 수 있다.The display module 305 may be implemented as a normal display means that is provided to enable a normal image output.
또한, 상기 제5 단계(S50)는, 상기 제1 스캐너(1) 및 제2 스캐너(2)에 구비되는 제스쳐모듈(4)에 의해 스캔 대상 영역에 내에 존재하는 피사체의 제스쳐를 감지하고, 감지된 제스쳐가 기저장된 제스쳐 정보에 해당되면, 상기 제스쳐에 따라 기저장된 객체를 상기 합성영상정보에 합성하여 그 합성된 합성영상을 상기 디스플레이모듈(305)을 통해 출력하도록 제공하는 단계일 수 있다.In addition, in the fifth step S50, the gesture module 4 included in the first scanner 1 and the second scanner 2 detects a gesture of a subject existing in the scan target area, and is detected. If the gesture corresponds to previously stored gesture information, the previously stored object may be synthesized according to the gesture to the synthesized image information, and the synthesized image may be output through the display module 305.
예컨데, 상기 기저장된 객체는 상기 합성영상정보 중, 사용자에 의해 선택되는 일 영역에 합성되어 영상출력될 수 있으며, 바람직하게는 상기 비대응 객체 또는 합성영상정보의 영상 내에 복수로 표시될 수도 있다.For example, the pre-stored object may be synthesized in one region selected by the user among the synthesized image information and output an image. Preferably, the previously stored object may be displayed in plural in the image of the non-corresponding object or the composite image information.
또한, 상기 제5 단계(S50)는, 상기 제어장치(3)의 제어에 따라 상기 제1 스캐너(1) 및 제2 스캐너(2)에 구비되는 하나 이상의 발광모듈(5)의 광 조사에 의해 상기 디스플레이모듈(305)을 통해 출력되는 합성영상 중, 상기 비대응 객체의 명암 또는 밝기의 값이 일정 값을 만족하도록 상기 스캔 대상 영역의 조도를 조절가능하도록 제공하는 단계일 수 있다.In addition, the fifth step S50 may be performed by light irradiation of one or more light emitting modules 5 provided in the first scanner 1 and the second scanner 2 under the control of the controller 3. Among the composite images output through the display module 305, the illumination intensity of the scan target area may be adjusted so that the intensity or brightness of the non-corresponding object satisfies a predetermined value.
예컨데 상기 발광모듈(5)은 조명수단으로 이루어지되, 바람직하게는 상기 비대응 객체의 명암 또는 밝기의 값이 일정 값 이하 또는 이상일 경우, 기설정된 적정 조도를 유지하기 위해 조사되는 광의 세기를 조절가능하도록 제공됨에 따라, 조도 차이가 잦은 환경에서도 자동으로 원활한 영상 합성을 수행할 수 있도록 할 뿐만 아니라, 합성영상의 품질을 좀 더 향상시킬 수가 있게 된다.For example, the light emitting module 5 may be made of lighting means. Preferably, when the intensity or brightness of the non-corresponding object is less than or equal to a predetermined value, the light emitting module 5 may adjust the intensity of light irradiated to maintain a predetermined appropriate illuminance. As it is provided so as to enable a smooth image synthesis even in an environment with a large difference in illuminance, the quality of the synthesized image can be further improved.
또한, 상기 제5 단계(S50)는, 상기 제1 스캐너(1) 및 제2 스캐너(2)에 공급되는 외부 전원이 차단될 경우, 상기 제1 스캐너(1) 및 제2 스캐너(2)에 구비되는 비상전원공급모듈에 의해 가용전원을 공급하도록 하는 단계를 포함하여 제공될 수가 있다. In addition, when the external power supplied to the first scanner 1 and the second scanner 2 is cut off, the fifth step S50 may be performed to the first scanner 1 and the second scanner 2. It may be provided, including the step of supplying the available power by the emergency power supply module provided.
이에 따라, 정전이 발생할 경우에도 제1 스캐너(1) 및 제2 스캐너(2)가 일정시간 동안 정상구동이 가능함에 따라, 제1 스캐너(1) 및 제2 스캐너(2)로부터 스캐닝되는 정보들의 손실을 방지할 수 있게 된다.Accordingly, even when a power failure occurs, since the first scanner 1 and the second scanner 2 can be driven normally for a predetermined time, the information scanned from the first scanner 1 and the second scanner 2 The loss can be prevented.
더불어 상기 제5 단계(S50), 상기 제1 스캐너(1) 및 제2 스캐너(2)로부터 전원 공급 차단에 따른 알림신호를 상기 제어장치(3)의 제어모듈(308)이 전송받으면,상기 제어모듈(308)의 제어에 따라 상기 알림신호에 해당하는 정보가 상기 디스플레이모듈(305)에 표시되도록 제공하는 단계를 포함하여 제공될 수가 있다. In addition, when the control module 308 of the control device 3 receives the notification signal according to the power supply cutoff from the fifth step S50 and the first scanner 1 and the second scanner 2, the control. According to the control of the module 308, the information corresponding to the notification signal may be provided to the display module 305.
따라서, 정전과 같은 비상 상황발생에 대해 신속한 대처가 가능할 수 있게 되고, 더 나아가 상기 제1 스캐너(1) 및 제2 스캐너(2)로부터 상기 제어장치(3)에 저장되는 정보손실을 최소화할 수 있게 된다.Therefore, it is possible to quickly respond to emergencies such as power outages, and further minimize the loss of information stored in the control device 3 from the first scanner 1 and the second scanner 2. Will be.
이상과 같은 본 발명의 설명에서 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.In the above description of the present invention, the combination of each block of the block diagram and each step of the flowchart may be performed by computer program instructions. These computer program instructions may be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment such that instructions executed through the processor of the computer or other programmable data processing equipment may not be included in each block or flowchart of the block diagram. It will create means for performing the functions described in each step. These computer program instructions may be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular manner, and thus the computer usable or computer readable memory. It is also possible for the instructions stored in to produce an article of manufacture containing instruction means for performing the functions described in each block or flowchart of each step of the block diagram. Computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operating steps may be performed on the computer or other programmable data processing equipment to create a computer-implemented process to create a computer or other programmable data. Instructions that perform processing equipment may also provide steps for performing the functions described in each block of the block diagram and in each step of the flowchart.
또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 예컨데, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each block or step may represent a portion of a module, segment or code that includes one or more executable instructions for executing a specified logical function (s). For example, the two blocks or steps shown in succession may in fact be executed substantially concurrently, or the blocks or steps may sometimes be performed in the reverse order, depending on the functionality involved.
이와 같이 구성한 본 발명은 간단한 구성으로 영상 합성이 가능하게 하여 비용을 절감할 수 있으며, 조도 차이가 잦은 환경에서도 원활한 영상 합성을 수행할 수 있도록 하는 효과가 있는 발명이다.The present invention configured as described above is an invention having the effect of enabling the image synthesis with a simple configuration to reduce the cost, it is possible to perform a smooth image synthesis even in an environment with frequent illumination differences.
이상, 본 발명의 실시예에 대하여 설명하였으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 특허청구범위에 기재된 본 발명으로부터 벗어나지 않는 범위 내에서, 구성 요소의 부가, 변경, 삭제 또는 추가 등에 의해 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이며, 이 또한 본 발명의 권리범위 내에 포함된다고 할 것이다.As mentioned above, although embodiment of this invention was described, those of ordinary skill in this technical field could see it by addition, a change, deletion, or addition of a component within the range which does not deviate from this invention described in a claim. Various modifications and variations may be made to the invention, which are also intended to be included within the scope of the invention.
1. 제1 스캐너 2. 제2 스캐너
3. 제어장치 4. 제스쳐 모듈
5. 발광모듈 301. 제1 판단모듈
302. 제2 판단모듈 303. 제1 합성모듈
304. 제2 합성모듈 305. 디스플레이모듈
306. 저장모듈 307. 모션제어모듈
308. 제어모듈1. First Scanner 2. Second Scanner
3. Controller 4. Gesture Module
5. Light emitting module 301. First judgment module
302. Second Decision Module 303. First Synthesis Module
304. Second Synthesis Module 305. Display Module
306. Storage Module 307. Motion Control Module
308. Control Module
Claims (5)
상기 제1 단계로부터 제어장치의 제1 판단모듈에 의해 상기 제1 및 제2 스캔정보 간에 서로 비대응되는 비대응 정보를 판단하며, 상기 판단에 따라 상기 비대응 정보를 제거하는 제2 단계;
상기 제2 단계로부터 상기 제어장치의 제1 합성모듈에 의해 상기 비대응 정보가 제거된 상기 제1 및 제2 스캔정보를 상호 합성하여 배경영상정보를 생성하는 제3 단계;
상기 제3 단계 이후, 피사체가 있는 상태에서 상기 제1 스캐너 및 제2 스캐너로 상기 스캔 대상 영역을 2차로 각각 스캔하여 제3 및 제4 스캔정보를 생성하고, 상기 제어장치의 제2 판단모듈에 의해 상기 제3 및 제4 스캔정보와, 상기 배경영상정보 간에 서로 비대응되는 상기 피사체에 해당하는 비대응 객체를 판단하며, 상기 판단에 따라 상기 비대응 객체를 추출하는 제4 단계; 및
상기 제4 단계로부터 추출된 상기 비대응 객체를 상기 제어장치의 제2 합성모듈에 의해 상기 저장모듈에 기저장된 합성영상정보에 합성하여 합성된 합성영상을 상기 제어장치의 디스플레이모듈을 통해 출력하는 제5 단계;를 포함하고,
상기 제4 단계에서,
상기 제1 스캐너의 스캔정보는 비대응 객체의 깊이정보를 포함하고, 상기 제2 스캐너의 스캔정보는 상기 비대응 객체의 안면정보와 바디정보를 포함하고, 상기 제2 판단모듈은 상기 비대응 객체를 판단할 때 상기 비대응 객체의 안면정보와 바디정보의 유무를 기준으로 하여 상기 배경영상정보로부터 상기 비대응 객체를 추출하는 것을 특징으로 하는 영상 합성 방법.
A first step of scanning first and second scan information with a first scanner and a second scanner in the absence of a subject, respectively, to generate first and second scan information, and storing the generated scan information in a storage module of the controller;
A second step of determining non-corresponding information between the first and second scan information by the first determination module of the control device from the first step, and removing the non-corresponding information according to the determination;
A third step of synthesizing the first and second scan information from which the non-corresponding information is removed by the first synthesizing module of the control device from the second step to generate background image information;
After the third step, the third and fourth scan information is generated by secondly scanning the scan target area with the first scanner and the second scanner, respectively, in a state where the subject is present, and then, in the second determination module of the control device. Determining a non-corresponding object corresponding to the subject that is incompatible with each other between the third and fourth scan information and the background image information, and extracting the non-corresponding object according to the determination; And
Synthesizing the non-corresponding object extracted from the fourth step into composite image information previously stored in the storage module by a second combining module of the control device, and outputting the synthesized image through the display module of the control device; 5 steps; including;
In the fourth step,
The scan information of the first scanner includes depth information of the non-corresponding object, the scan information of the second scanner includes facial information and body information of the non-corresponding object, and the second determination module includes the non-corresponding object. And extracting the non-compliant object from the background image information based on the presence or absence of face information and body information of the non-compliant object.
상기 제4 단계는
상기 제어장치의 모션제어모듈에 의해 상기 비대응 객체의 변위 값이 기설정된 특정 변위 값에 대응되는지 여부를 측정하고, 측정에 따라 대응되면 기저장된 복수의 상기 합성영상정보 중, 선택되는 어느 하나의 합성영상정보로 변환하도록 제공하는 단계를 포함하여 이루어지는 것을 특징으로 하는 영상 합성 방법.
The method of claim 1,
The fourth step is
The motion control module of the control device measures whether the displacement value of the non-corresponding object corresponds to a predetermined specific displacement value, and if the corresponding displacement value is determined according to the measurement, any one of the plurality of pre-stored composite image information selected And providing the image data to be converted into the composite image information.
상기 제5 단계는,
상기 제1 스캐너 및 제2 스캐너에 구비되는 제스쳐모듈에 의해 스캔 대상 영역에 내에 존재하는 피사체의 제스쳐를 감지하고, 감지된 제스쳐가 기저장된 제스쳐에 해당되면, 상기 제스쳐에 따라 기저장된 객체를 상기 합성영상정보에 합성하여 합성된 합성영상을 상기 디스플레이모듈을 통해 출력하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 영상 합성 방법.
The method of claim 1,
The fifth step,
The gesture module included in the first scanner and the second scanner detects a gesture of a subject present in the scan target area, and if the detected gesture corresponds to a previously stored gesture, the previously stored object is synthesized according to the gesture. And synthesizing the synthesized image information through the display module.
상기 제5 단계는,
상기 제어장치의 제어에 따라 상기 제1 스캐너 및 제2 스캐너에 구비되는 하나 이상의 발광모듈의 광 조사에 의해 상기 디스플레이모듈을 통해 출력되는 합성영상 중, 상기 비대응 객체의 명암 또는 밝기의 값이 일정 값을 만족하도록 상기 스캔 대상 영역의 조도를 조절하는 단계를 더 포함하는 것을 특징으로 하는 영상 합성 방법.
The method of claim 1,
The fifth step,
According to the control of the control device, among the composite image output through the display module by light irradiation of one or more light emitting modules provided in the first scanner and the second scanner, the value of contrast or brightness of the non-corresponding object is constant. And adjusting the illuminance of the scan target area to satisfy a value.
상기 제5 단계는,
상기 제1 스캐너 및 제2 스캐너에 공급되는 외부 전원이 차단될 경우, 상기 제1 스캐너 및 제2 스캐너에 구비되는 비상전원공급모듈에 의해 가용전원을 공급하도록 하고, 상기 제1 스캐너 및 제2 스캐너로부터 전원 공급 차단에 따른 알림신호를 상기 제어장치의 제어모듈이 전송받으면, 상기 알림신호에 해당하는 정보가 상기 디스플레이모듈에 표시되도록 제공하는 단계를 포함하여 이루어진 것을 특징으로 하는 영상 합성 방법.
The method of claim 4, wherein
The fifth step,
When external power supplied to the first scanner and the second scanner is cut off, the available power is supplied by the emergency power supply module provided in the first scanner and the second scanner, and the first scanner and the second scanner And when the control module of the control device receives the notification signal according to the power supply cutoff from the controller, providing information corresponding to the notification signal to the display module.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180054974A KR102062982B1 (en) | 2018-05-14 | 2018-05-14 | Method for video synthesis |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180054974A KR102062982B1 (en) | 2018-05-14 | 2018-05-14 | Method for video synthesis |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190130380A KR20190130380A (en) | 2019-11-22 |
KR102062982B1 true KR102062982B1 (en) | 2020-01-07 |
Family
ID=68731097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180054974A KR102062982B1 (en) | 2018-05-14 | 2018-05-14 | Method for video synthesis |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102062982B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102334350B1 (en) | 2019-10-25 | 2021-12-03 | 주식회사 아이오로라 | Image processing system and method of providing realistic photo image by synthesizing object and background image |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009164903A (en) * | 2008-01-07 | 2009-07-23 | Furyu Kk | Photographic sticker forming device and method, and program |
JP2013009082A (en) * | 2011-06-23 | 2013-01-10 | Nippon Telegr & Teleph Corp <Ntt> | Video composing apparatus, video composing method, and video composing program |
KR101706262B1 (en) * | 2016-09-13 | 2017-02-13 | 주식회사 씨트링 | DVR monitoring system for recording and monitoring in emergency |
KR101733125B1 (en) * | 2015-11-18 | 2017-05-08 | (주)케이아이에스 | Method of chroma key image synthesis without background screen |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100934471B1 (en) | 2008-04-17 | 2009-12-30 | (주)아이스타티브이 | Image Production Apparatus and Method Using Chroma Key |
KR101870902B1 (en) * | 2011-12-12 | 2018-06-26 | 삼성전자주식회사 | Image processing apparatus and image processing method |
KR20170029725A (en) * | 2015-09-07 | 2017-03-16 | 주식회사 다림비젼 | Method and apparatus for generating video lecture by synthesizing multiple images |
-
2018
- 2018-05-14 KR KR1020180054974A patent/KR102062982B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009164903A (en) * | 2008-01-07 | 2009-07-23 | Furyu Kk | Photographic sticker forming device and method, and program |
JP2013009082A (en) * | 2011-06-23 | 2013-01-10 | Nippon Telegr & Teleph Corp <Ntt> | Video composing apparatus, video composing method, and video composing program |
KR101733125B1 (en) * | 2015-11-18 | 2017-05-08 | (주)케이아이에스 | Method of chroma key image synthesis without background screen |
KR101706262B1 (en) * | 2016-09-13 | 2017-02-13 | 주식회사 씨트링 | DVR monitoring system for recording and monitoring in emergency |
Also Published As
Publication number | Publication date |
---|---|
KR20190130380A (en) | 2019-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11115633B2 (en) | Method and system for projector calibration | |
KR101696630B1 (en) | Lighting system and method for image and object enhancement | |
CN101542537B (en) | Methods and systems for color correction of 3D images | |
WO2017090454A1 (en) | Information processing device, information processing method, and program | |
EP3198852A1 (en) | Image processing apparatus and control method thereof | |
US10264194B2 (en) | Information processing device, information processing method, and program | |
US11941729B2 (en) | Image processing apparatus, method for controlling image processing apparatus, and storage medium | |
KR20120038755A (en) | Apparatus for generating image for face authentication and method thereof | |
JP2011182026A (en) | Image processing apparatus, image display system, and image extracting device | |
KR102062982B1 (en) | Method for video synthesis | |
JP2008123316A (en) | Data input method and data input device | |
KR20150101343A (en) | Video projection system | |
US11354821B2 (en) | Image processing method and apparatus | |
KR100774991B1 (en) | remocon external inspect system and method of using machine vision | |
WO2015146084A1 (en) | Pos terminal, information processing device, white balance adjustment method, and recording medium | |
US10712841B2 (en) | Display control device, display control system, display control method, and storage medium having stored thereon display control program | |
US20240107177A1 (en) | Techniques for Correcting Images in Flash Photography | |
EP4407977A1 (en) | Information processing apparatus, image processing method, and program | |
EP4425437A1 (en) | Image processing apparatus, image processing method, and virtual studio system | |
JP6429470B2 (en) | Image display device, image display method, and program | |
KR20240152113A (en) | Electronic device and image mapping method | |
KR20150104846A (en) | Method and apparatus for generating three dimensional image using a monoscopic camera | |
KR20220083836A (en) | Extraction of subject from background | |
JP2019082958A (en) | Image processor, image processing method and program | |
JP2010123530A (en) | Lighting device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |