KR20220082260A - Terminal for rendering 3d content and operaing method of thereof - Google Patents
Terminal for rendering 3d content and operaing method of thereof Download PDFInfo
- Publication number
- KR20220082260A KR20220082260A KR1020200171991A KR20200171991A KR20220082260A KR 20220082260 A KR20220082260 A KR 20220082260A KR 1020200171991 A KR1020200171991 A KR 1020200171991A KR 20200171991 A KR20200171991 A KR 20200171991A KR 20220082260 A KR20220082260 A KR 20220082260A
- Authority
- KR
- South Korea
- Prior art keywords
- content
- display
- terminal
- captured image
- rendered
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
실시예는, 3차원 콘텐츠를 렌더링하기 위한 단말의 동작 방법에 대한 것이다. 를 포함할 수 있다. 단말의 동작 방법에 있어서, 대상 객체를 포함하는 제1 촬영 이미지를 서버로 전송하는 단계; 제1 촬영 이미지로부터 대상 객체가 추출된 객체 영상을 획득하는 단계; 객체 영상을 이용하여 3차원 콘텐츠를 생성하는 단계; 디스플레이를 포함하는 제2 촬영 이미지를 획득하는 단계; 제2 촬영 이미지에 기초하여 디스플레이 내 3차원 콘텐츠가 렌더링될 위치를 결정하는 단계; 및 디스플레이를 제어하는 컴퓨팅 장치로 위치를 포함하는 제2 촬영 이미지 및 3차원 콘텐츠를 전송하는 단계를 포함하고, 3차원 콘텐츠는 컴퓨팅 장치에 의하여 디스플레이의 위치에 표시되도록 렌더링되는, 단말의 동작 방법.The embodiment relates to a method of operating a terminal for rendering 3D content. may include A method of operating a terminal, comprising: transmitting a first photographed image including a target object to a server; obtaining an object image in which the target object is extracted from the first captured image; generating 3D content using an object image; acquiring a second captured image including a display; determining a position in the display where the 3D content is to be rendered based on the second captured image; and transmitting a second captured image including a location and three-dimensional content to a computing device controlling the display, wherein the three-dimensional content is rendered to be displayed at the location of the display by the computing device.
Description
실시예는, 3차원 콘텐츠를 렌더링하기 위한 단말 및 그 동작 방법에 관한 것이다.The embodiment relates to a terminal for rendering 3D content and an operating method thereof.
일반적으로 선박, 플랜트, 항공기, 건물 등과 같은 특정 구조물의 설계 시, 2D 캐드 프로그램 예컨대 '오토캐드(AUTOCAD)' 등을 사용하여 설계 작업을 한 후, 해당 구조물의 전체적인 입체적 형상과 구조물의 수정, 변경 문제 등을 용이하게 파악하기 위하여 3D 캐드 도면으로 전환하는 작업을 수행하게 된다.In general, when designing a specific structure such as a ship, plant, aircraft, or building, after designing using a 2D CAD program such as 'AUTOCAD', the overall three-dimensional shape of the structure and the modification or change of the structure In order to easily identify problems, etc., the work of converting to 3D CAD drawings is performed.
또한, 3차원 콘텐츠를 생성 및 렌더링하기 위해 획득한 이미지의 배경을 제거함으로써 객체를 추출하는 방법은 제시되어 있으나, 이를 활용하는 방법이 다양하게 존재하지 않는다.In addition, a method of extracting an object by removing the background of an image obtained to generate and render 3D content has been proposed, but various methods of using the method do not exist.
디자인 작업 시 디자이너가 복잡한 3차원 모델을 생성하기 위해서는 많은 시간이 소요되는데, 3차원 모델을 다른 작업 공간으로 가져가게 되면 모델을 변경하기 어렵다.It takes a lot of time for a designer to create a complex 3D model during design work, and it is difficult to change the model when the 3D model is brought to another workspace.
이와 관련하여 한국등록특허 제1473956호에서는 "2d 평면도를 기초로 한 3d 공간정보 모델링 방법 및 해당 3d 공간 모델을 이용한 영상 관제 시스템"이 개시된다.In this regard, Korean Patent Registration No. 1473956 discloses "a 3d spatial information modeling method based on a 2d plan view and an image control system using the 3d spatial model".
실시예에 따른 발명은, 3차원 물체를 촬영한 영상을 이용하여 3차원 콘텐츠를 생성하고, 3차원 콘텐츠를 렌더링하는 방법을 제공하고자 한다.The invention according to an embodiment is to provide a method of generating 3D content by using an image obtained by photographing a 3D object and rendering the 3D content.
자세하게는, 3차원 콘텐츠를 만드는 과정에 사진 촬영을 이용하여 여러 과정(컨셉 디자인, 볼륨 조절, 테스팅, 반복)을 간소화하고, 단말에서 생성된 3차원 콘텐츠를 PC등의 컴퓨팅 장치의 디스플레이로 렌더링하는 방법을 제공하고자 한다.In detail, in the process of creating 3D content, various processes (concept design, volume control, testing, iteration) are simplified by using photography, and the 3D content generated in the terminal is rendered to the display of a computing device such as a PC. We want to provide a way.
실시예에 따른 발명은, 3차원 물체를 촬영한 영상을 이용하여 3차원 콘텐츠를 생성하고, 3차원 콘텐츠를 렌더링하는 방법을 제공할 수 있다.The invention according to an embodiment may provide a method of generating 3D content using an image obtained by photographing a 3D object and rendering the 3D content.
자세하게는, 3차원 콘텐츠를 만드는 과정에 사진 촬영을 이용하여 여러 과정(컨셉 디자인, 볼륨 조절, 테스팅, 반복)을 간소화하고, 단말에서 생성된 3차원 콘텐츠를 PC등의 컴퓨팅 장치의 디스플레이로 렌더링하는 방법을 제공할 수 있다.In detail, in the process of creating 3D content, various processes (concept design, volume control, testing, iteration) are simplified by using photography, and the 3D content generated in the terminal is rendered to the display of a computing device such as a PC. method can be provided.
도 1은 실시예에서, 3차원 콘텐츠를 렌더링하는 방법을 설명하기 위한 흐름도이다.
도 2는 실시예에서, 3차원 콘텐츠가 컴퓨팅 장치에서 렌더링되는 방법을 설명하기 위한 도면이다.
도 3은 실시예에서, 3차원 콘텐츠를 렌더링하기 위한 위치를 결정하는 방법을 설명하기 위한 도면이다.
도 4는 실시예에서, 3차원 콘텐츠 렌더링 방법에 대한 예시이다.
도 5는 실시예에서, 단말의 구성에 대해 설명하기 위한 블록도이다.1 is a flowchart illustrating a method of rendering 3D content according to an embodiment.
2 is a diagram for explaining a method of rendering 3D content in a computing device according to an embodiment.
3 is a diagram for explaining a method of determining a position for rendering 3D content according to an embodiment.
4 is an example of a 3D content rendering method in the embodiment.
5 is a block diagram for explaining the configuration of a terminal in the embodiment.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all modifications, equivalents and substitutes for the embodiments are included in the scope of the rights.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for the purpose of description only, and should not be construed as limiting. The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that a feature, number, step, operation, component, part, or a combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are given the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In describing the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.
또한, 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다. In addition, in describing the components of the embodiment, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, or order of the elements are not limited by the terms. When it is described that a component is "connected", "coupled" or "connected" to another component, the component may be directly connected or connected to the other component, but another component is between each component. It will be understood that may also be "connected", "coupled" or "connected".
어느 하나의 실시 예에 포함된 구성요소와, 공통적인 기능을 포함하는 구성요소는, 다른 실시 예에서 동일한 명칭을 사용하여 설명하기로 한다. 반대되는 기재가 없는 이상, 어느 하나의 실시 예에 기재한 설명은 다른 실시 예에도 적용될 수 있으며, 중복되는 범위에서 구체적인 설명은 생략하기로 한다.Components included in one embodiment and components having a common function will be described using the same names in other embodiments. Unless otherwise stated, descriptions described in one embodiment may be applied to other embodiments as well, and detailed descriptions within the overlapping range will be omitted.
도 1은 실시예에서, 3차원 콘텐츠를 렌더링하는 방법을 설명하기 위한 흐름도이다.1 is a flowchart illustrating a method of rendering 3D content according to an embodiment.
실시예에 따른 방법에 의하면, 단말, 서버 및 컴퓨팅 장치 간의 통신에 기초한 연동성을 이용하여 3차원 콘텐츠를 생성하고, 컴퓨팅 장치로 렌더링하는 방법을 제공할 수 있다.According to the method according to the embodiment, it is possible to provide a method of generating 3D content using interworking based on communication between a terminal, a server, and a computing device, and rendering the 3D content by the computing device.
단계(101)에서 단말은 제1 촬영 이미지를 획득한다. 실시예에서, 제1 촬영 이미지는 단말의 카메라를 통해 촬영되는 이미지로, 단말은 3차원 콘텐츠로 제작하고자 하는 대상 객체를 포함시켜 촬영함으로써 제1 촬영 이미지를 획득할 수 있다.In
단계(102)에서 단말은 제1 촬영 이미지를 서버로 전송한다.In
단계(103)에서 서버는, 수신된 제1 촬영 이미지에서 배경을 제거하고 객체 깊이를 추정한다.In
실시예에서, 제1 촬영 이미지에서 대상 객체를 인식하고, 제1 촬영 이미지에서 대상 객체를 제외한 모든 부분을 배경으로 인식할 수 있다. 서버는, 제1 촬영 이미지에서 배경으로 인식되는 모든 영역을 제거함으로써 대상 객체를 추출할 수 있다. 이를 위해서 서버는 BASNet 등의 딥러닝 모델을 이용할 수 있다.In an embodiment, a target object may be recognized in the first captured image, and all parts of the first captured image except for the target object may be recognized as a background. The server may extract the target object by removing all regions recognized as the background from the first captured image. For this, the server can use a deep learning model such as BASNet.
서버는 배경이 제거되어 추출된 대상 객체에 대해서 깊이를 추정할 수 있다. 이를 위해서 VGGNet, CNN 모델 등이 이용될 수 있다.The server may estimate the depth of the extracted target object by removing the background. For this, VGGNet, CNN model, etc. can be used.
단계(104)에서 서버는, 추출된 대상 객체 및 대상 객체에 대한 정보를 단말로 전송할 수 있다. 실시예에서, 배경이 제거된 객체의 영상을 전송할 수 있다. 객체에 대한 정보는 객체의 깊이 정보 등 대상 객체를 3차원으로 구현하는 데에 필요한 정보(예컨대 마스킹 데이터)를 포함할 수 있다.In
단계(105)에서 단말은 객체 여상을 이용하여 3차원 콘텐츠를 생성한다. 실시예에서, 단말은 3차원 콘텐츠를 생성하기 위한 앱을 실행할 수 있다. 단말은 수신된 대상 객체에 대해 3차원 골격을 생성하고, 텍스쳐(texture)를 입힘으로써 3차원 콘텐츠를 생성할 수 있다.In
실시예에서, 단말은 사용자의 제어에 의해 렌더링될 3차원 콘텐츠의 시점을 변환할 수 있다. 예를 들어, 사용자는 생성된 3차원 콘텐츠를 회전시키거나, 시점을 변경하는 등 3차원 콘텐츠가 단말의 디스플레이로 노출되는 시점에 대해 단말의 디스플레이를 터치함으로써 변경, 제어할 수 있다.In an embodiment, the terminal may convert the viewpoint of the 3D content to be rendered under the control of the user. For example, the user may change or control the viewpoint at which the 3D content is exposed on the display of the terminal, such as rotating the generated 3D content or changing the viewpoint, by touching the display of the terminal.
단계(106)에서 단말은, 제2 촬영 이미지를 획득한다. 실시예에서, 제2 촬영 이미지는 생성된 3차원 콘텐츠를 붙여 넣을 대상 및 위치를 결정하는 데에 이용할 수 있다.In
제2 촬영 이미지는 단말에 구비된 카메라를 통해 입력되는 영상에 해당할 수 있고, 해당 영상은 생성된 3차원 콘텐츠를 붙여 넣기 위한 디스플레이를 포함할 수 있다. 예를 들어, 제2 촬영 이미지는 PC의 모니터, 노트북의 모니터 등의 디스플레이 화면을 포함할 수 있다.The second captured image may correspond to an image input through a camera provided in the terminal, and the image may include a display for pasting the generated 3D content. For example, the second captured image may include a display screen such as a monitor of a PC or a monitor of a laptop computer.
단계(107)에서 단말은 3차원 콘텐츠를 렌더링할 위치를 결정한다. 실시예에서, 3차원 콘텐츠가 렌더링될 위치는 제2 촬영 이미지에 포함되는 디스플레이 내에서 선택될 수 있다. 디스플레이에는 작업 중인 창이 포함될 수 있다. 단말은, 제2 촬영 이미지에서 디스플레이 영역을 인식할 수 있고, 해당 영역 내에서 렌더링될 위치가 선택될 수 있도록 디스플레이 영역 이외의 영역에 대해서 비활성화할 수 있다. 제2 촬영 이미지에서 디스플레이를 인식하는 방법에 대해서는 이후 자세히 설명하도록 한다.In
실시예에서는, 단말은 카메라를 통해 단말의 디스플레이로 노출되는 영상에서 디스플레이 영역을 검출하여 표시하고, 해당 영역에서 3차원 콘텐츠가 렌더링될 위치가 결정되도록 할 수 있다.In an embodiment, the terminal may detect and display a display area from an image exposed to the display of the terminal through a camera, and determine a position where 3D content is to be rendered in the corresponding area.
단계(108)에서 단말은 제2 촬영 이미지와 3차원 콘텐츠를 해당 디스플레이와 연결된 컴퓨팅 장치로 전송할 수 있다. 혹은 컴퓨팅 장치가 디스플레이를 포함할 수 있다. 실시예에서, 제2 촬영 이미지는 제2 촬영 이미지 내 3차원 콘텐츠가 렌더링될 위치에 대한 정보를 포함할 수 있다.In
단계(109)에서 컴퓨팅 장치는 수신된 정보에 기초하여 3차원 콘텐츠를 렌더링한다. 실시예에서, 단말에서 결정된 렌더링 위치에 기초하여 3차원 콘텐츠를 해당 위치로 렌더링할 수 있다.In
컴퓨팅 장치는 적어도 하나의 프로그램을 실행 중이며, 해당 프로그램의 실행은 컴퓨팅 장치와 연결된 디스플레이를 통해 확인될 수 있다.The computing device is executing at least one program, and the execution of the corresponding program may be confirmed through a display connected to the computing device.
실시예에서, 컴퓨팅 장치는 단말로부터 수신된 3차원 콘텐츠를 실행 중인 프로그램의 디스플레이 작업 공간 상에 렌더링할 수 있다. 컴퓨팅 장치에서 실행 중인 프로그램에 따라서 3차원 콘텐츠를 그대로 렌더링하거나 2차원으로 변환하여 렌더링할 수 있다. 도 2를 통해 해당 실시예에 대해서 자세히 설명하도록 한다.In an embodiment, the computing device may render the 3D content received from the terminal on the display workspace of the running program. Depending on the program running on the computing device, 3D content may be rendered as it is or converted to 2D and rendered. Referring to FIG. 2, the embodiment will be described in detail.
도 2는 실시예에서, 3차원 콘텐츠가 컴퓨팅 장치에서 렌더링되는 방법을 설명하기 위한 도면이다.2 is a diagram for explaining a method of
단계(201)에서 단말은 3차원 콘텐츠를 생성할 수 있다. 3차원 콘텐츠를 생성하는 실시예는 도 1의 설명을 참조할 수 있다.In
단계(202)에서 단말은 3차원 콘텐츠의 시점을 변환할 수 있다. 예를 들어, 생성된 콘텐츠를 좌우 또는 앞뒤 방향 등으로 자유롭게 회전시킴으로써 3차원 콘텐츠가 디스플레이 상에 표현되는 공간 상의 시점을 변경할 수 있다.In
단계(203)에서 단말은 단말의 카메라를 통해 입력되는 영상에서 3차원 콘텐츠를 렌더링할 위치를 타겟팅 할 수 있다. 단말은 카메라를 통해 단말의 디스플레이로 노출되는 영상에서 디스플레이 영역을 검출하여 표시하고, 해당 영역에서 3차원 콘텐츠가 렌더링될 위치가 결정되도록 할 수 있다. 실시예에서, 캡쳐된 이미지에 3차원 콘텐츠가 렌더링될 위치가 타겟팅 되거나 또는 카메라를 통해 실시간으로 입력되는 영상에 대해서 3차원 콘텐츠가 렌더링될 위치가 타겟팅될 수 있다.In
실시예에 있어서, 단말은 3차원 콘텐츠를 컴퓨팅 장치로 전송하고, 컴퓨팅 장치는 실행 중인 프로그램에 대한 정보에 기초하여 3차원 콘텐츠를 그대로 렌더링하거나 2차원으로 변환하여 렌더링할 수 있다.In an embodiment, the terminal transmits the 3D content to the computing device, and the computing device may render the 3D content as it is or convert it into 2D based on information about the program being executed.
다른 실시예에서, 3차원 콘텐츠가 렌더링될 컴퓨팅 장치에서 실행 중인 프로그램에 대한 정보에 기초하여 3차원 콘텐츠가 그대로 전송되거나 3차원 콘텐츠가 2차원 콘텐츠로 변환하여 전송될 수 있다.In another embodiment, the 3D content may be transmitted as it is, or the 3D content may be converted into 2D content and transmitted based on information about a program running in the computing device to which the 3D content is to be rendered.
단계(204)에서 실행 중인 프로그램이 3D 프로그램인 경우, 예를 들어 3D Max, Maya 등의 프로그램인 경우, 컴퓨팅 장치는 3차원 콘텐츠를 해당 프로그램의 작업 공간으로 렌더링할 수 있다. 실시예에서, 제2 촬영 이미지에 기초하여, 제2 촬영 이미지의 결정된 위치로 3차원 콘텐츠를 렌더링할 수 있다.When the program being executed in
실행 중인 프로그램이 2D 프로그램인 경우, 예를 들어 Power Point, Word 등의 프로그램인 경우, 단계(205)에서 컴퓨팅 장치는 3차원 콘텐츠를 2차원 콘텐츠로 변환할 수 있다. 실시예에 따라서 단계(205)는 단말에서 이루어질 수도 있다.When the running program is a 2D program, for example, a program such as Power Point or Word, the computing device may convert 3D content into 2D content in
이어 단계(206)에서 컴퓨팅 장치는 2차원으로 변환된 2차원 콘텐츠를 실행 중인 프로그램의 작업 공간으로 렌더링할 수 있다.Subsequently, in
실시예에서, 컴퓨팅 장치에서 3차원 콘텐츠를 렌더링 할 시, 3차원 콘텐츠의 변환된 시점을 기준으로 하여 이미지 형태로 3차원 콘텐츠를 렌더링할 수 있다.In an embodiment, when the computing device renders the 3D content, the 3D content may be rendered in the form of an image based on the converted viewpoint of the 3D content.
도 3은 실시예에서, 3차원 콘텐츠를 렌더링하기 위한 위치를 결정하는 방법을 설명하기 위한 도면이다.3 is a diagram for explaining a method of determining a position for
실시예에 있어서, 3차원 콘텐츠가 생성된 이후, 3차원 콘텐츠를 렌더링할 위치를 결정하기 위해 단말에서 디스플레이 영역을 추출하고, 디스플레이 영역에서 렌더링 위치를 결정하는 방법에 대해 설명한다. 이를 위해서 단말과 컴퓨팅 장치는 상호 간 연동될 수 있다.In an embodiment, after 3D content is generated, a method of extracting a display area from a terminal to determine a position to render 3D content and determining a rendering position in the display area will be described. To this end, the terminal and the computing device may interact with each other.
단계(310)에서 단말은 제2 촬영 이미지를 획득할 수 있다.In
실시예에서, 스마트폰 등의 단말에서 앱을 이용하여 카메라에서 촬영되는 이미지가 컴퓨팅 장치와 연결된 디스플레이 영역을 포함하도록 이미지를 촬영할 수 있다. 실시예에서, 앱을 통해 카메라를 통해 실시간으로 감지되는 영상 내에서 디스플레이 영역을 감지하고, 해당 영역을 가이드할 수 있다.In an embodiment, by using an app in a terminal such as a smartphone, an image may be captured such that the image captured by the camera includes a display area connected to the computing device. In an embodiment, a display area may be detected within an image detected in real time through a camera through an app, and the corresponding area may be guided.
단계(320)에서 단말은, 제2 촬영 이미지로부터 디스플레이 영역을 인식할 수 있다.In
실시예에서, 단말은 제2 촬영 이미지로부터 디스플레이의 외곽선을 추출할 수 있다. 더불어, 디스플레이의 외곽선을 기준으로 디스플레이를 통해 출력되는 화면을 인식할 수 있다. 제2 촬영 이미지가 디스플레이의 일부가 인식되더라도 외곽선을 추출할 수 있다. 단말은 제2 촬영 이미지를 컴퓨팅 장치로 전송할 수 있다.In an embodiment, the terminal may extract the outline of the display from the second captured image. In addition, a screen output through the display may be recognized based on the outline of the display. Even if a part of the display of the second captured image is recognized, the outline may be extracted. The terminal may transmit the second captured image to the computing device.
단계(330)에서 컴퓨팅 장치는 디스플레이 전체에 대한 영상을 획득할 수 있다.In
실시예에서, 컴퓨팅 장치에서 제2 촬영 이미지를 수신하면, 컴퓨팅 장치는 디스플레이 영역에 대해서 스크린 캡쳐를 실행하여 제2 촬영 이미지에 포함된 디스플레이 영역에 출력되는 이미지에 대응하는 디스플레이 전체에 대한 캡쳐 이미지를 획득할 수 있다.In an embodiment, upon receiving the second captured image from the computing device, the computing device executes a screen capture on the display area to obtain a captured image for the entire display corresponding to the image output to the display area included in the second captured image. can be obtained
단계(340)에서 컴퓨팅 장치는 디스플레이의 전체 이미지에 대한 이미지 특징점을 추출할 수 있다.In
실시예에서, 컴퓨팅 장치는 단말에서 전송된 제2 촬영 이미지에 포함되는 디스플레이 영역에 대한 특징점을 추출하고, 디스플레이 전체를 캡쳐한 캡쳐 이미지의 특징점을 추출할 수 있다.In an embodiment, the computing device may extract a feature point of a display area included in the second captured image transmitted from the terminal, and extract a feature point of a captured image that captures the entire display.
단계(350)에서 컴퓨팅 장치는 단말과 디스플레이를 매칭할 수 있다.In
단계(360)에서 단말은 디스플레이 상에 렌더링할 좌표를 획득할 수 있다. In
실시예에서, 앞서 추출된 특징점에 기초하여 단말로부터 전송된 제2 촬영 이미지에 포함되는 디스플레이 영역의 특징점과 캡쳐 이미지에 포함되는 특징점을 매칭함으로써 디스플레이 영역을 매칭할 수 있다.In an embodiment, the display area may be matched by matching the feature points included in the captured image with the feature points of the display area included in the second captured image transmitted from the terminal based on the previously extracted feature points.
예를 들어, 영상(351)에 의하면, 좌측 영상은 캡쳐 이미지에 해당하고, 우측 영상은 제2 촬영 이미지에서 디스플레이 영역을 인식한 영상에 해당할 수 있다. 컴퓨팅 장치는 두 영상을 매칭(ORB, object request broker)할 수 있다. 이 과정에서 카메라의 중심점을 기준으로 제2 촬영 이미지 상에 촬영된 중점을 계산하여 해당 위치에 매칭할 수 있다.For example, according to the
실시예에서, homograpy matching을 통해 단말에서 촬영된 제2 촬영 이미지가 디스플레이 상 위치하는 좌표 정보를 획득할 수 있다. 디스플레이 상 좌표 정보에 기초하여 단말은 3차원 콘텐츠를 렌더링하기 위한 좌표를 결정하고, 해당 좌표에 대한 정보를 획득할 수 있다.In an embodiment, coordinate information at which the second captured image captured by the terminal is located on the display may be obtained through homograpy matching. Based on the coordinate information on the display, the terminal may determine coordinates for rendering the 3D content, and obtain information on the coordinates.
이후, 디스플레이 상 3차원 콘텐츠의 렌더링을 위한 좌표가 결정되면, 단말은 디스플레이와 연결된 컴퓨팅 장치에서 실행 중인 이벤트를 Hooking하고, 해당 프로그램 상에 3차원 콘텐츠가 추가되도록 이벤트를 실행하기 위한 명령을 전송할 수 있다.Thereafter, when the coordinates for rendering the 3D content on the display are determined, the terminal hooks the event being executed in the computing device connected to the display, and transmits a command for executing the event so that the 3D content is added to the corresponding program. have.
일실시예에서, 컴퓨팅 장치는 실행 중인 프로그램에 전송된 3차원 콘텐츠를 좌표 정보에 기초하여 렌더링할 수 있다.In an embodiment, the computing device may render the 3D content transmitted to the running program based on the coordinate information.
도 4는 실시예에서, 3차원 콘텐츠 렌더링 방법에 대한 예시이다.4 is an example of a 3D content rendering method in the embodiment.
실시예에서, 단말은 제1 촬영 이미지(410)로부터 객체 대상(411)을 추출할 수 있다. 예를 들어, 단말은 제1 촬영 이미지(410)에서 복수의 객체 대상들을 추출하고, 추출된 객체 대상들 중 하나의 객체 대상(411)을 추출하도록 할 수 있으며, 또는 제1 촬영 이미지(410)의 깊이 정보에 기초하여 가장 가까이 있는 객체 대상(411)을 감지할 수 있다.In an embodiment, the terminal may extract the
실시예에서, 서버는 수신 받은 제1 촬영 이미지에 대해서 Masking을 수행하여 Masking 된 이미지(420)에서 배경(421)을 감지하고, 배경(421) 부분을 제거할 수 있다.In an embodiment, the server may perform masking on the received first captured image, detect the
서버는, 수신된 제1 촬영 이미지(410) 원본에 대해서 제거된 배경(421) 부분을 알파(Alpha=0)처리함으로써 대상 객체(431)만이 표현된 제1 촬영 이미지(430)를 획득할 수 있다. 실시예에서, 서버는 배경이 제거되어 추출된 대상 객체(431)에 대해서 깊이를 추정할 수 있다. 이를 위해서 VGGNet, CNN 모델 등이 이용될 수 있다. 서버에서, 추출된 대상 객체 및 대상 객체에 대한 정보를 단말로 전송할 수 있다.The server may obtain the first captured
실시예에서 단말은 서버로부터 수신된 정보에 기초하여 대상 객체에 대한 3차원 콘텐츠를 생성할 수 있다.In an embodiment, the terminal may generate 3D content for the target object based on information received from the server.
단말은 제2 촬영 이미지(440)를 획득할 수 있다. 실시예에서, 생성된 3차원 콘텐츠를 렌더링할 위치(442)를 제2 촬영 이미지(440) 내 포함된 디스플레이(441) 내에 표시할 수 있다. 예를 들어, 단말에서 제2 촬영 이미지(440) 내 3차원 콘텐츠에 대한 렌더링 위치(442)를 결정한 후, 해당 위치(442)에 대한 정보를 포함하는 영상을 캡쳐할 수 있다. 제2 촬영 이미지(440)를 기준으로 렌더링 위치(442)는 카메라로 입력되는 영상의 중심으로 미리 결정될 수 있으며, 단말을 이동, 회전시키면서 렌더링 위치(442)가 디스플레이(441)의 특정 포인트에 위치하도록 조절할 수 있다. 예를 들어, 렌더링될 위치는 사용자가 제2 촬영 이미지(440)를 캡쳐하는 시점을 기준으로 결정될 수 있고, 캡쳐하는 시점을 기준으로 3차원 콘텐츠의 위치뿐만 아니라 크기도 결정될 수 있다.The terminal may acquire the second captured
단말은 제2 촬영 이미지(450)의 중심에 해당하는 렌더링 위치로 3차원 콘텐츠(451)를 생성할 수 있다.The terminal may generate the
실시예에서, 단말은 렌더링 위치(442)로 3차원 콘텐츠가 렌더링되도록 3차원 콘텐츠를 3차원 콘텐츠가 렌더링될 디스플레이와 연결된 컴퓨팅 장치로 전송할 수 있다. 3차원 콘텐츠의 전송을 위해 단말과 컴퓨팅 장치는 근거리 통신으로 연결될 수 있다. 컴퓨팅 장치는, 실행 중인 프로그램에 기초하여 3차원 콘텐츠(451)를 디스플레이 상에 렌더링할 수 있다.In an embodiment, the terminal may transmit the 3D content to the
도 5는 실시예에서, 단말의 구성에 대해 설명하기 위한 블록도이다.5 is a block diagram for explaining the configuration of a terminal in the embodiment.
실시예에서, 단말(500)은 하나 이상의 메모리(510), 하나 이상의 프로세서(520)를 포함하고, 서버(501) 및 컴퓨팅 장치(502)와 통신하기 위한 통신부(530)를 포함할 수 있다.In an embodiment, the terminal 500 may include one or
실시예에 따른 방법에 의하면, 단말(500), 서버(501) 및 컴퓨팅 장치(502) 간의 통신에 기초한 연동성을 이용하여 3차원 콘텐츠를 생성하고, 3차원 콘텐츠를 컴퓨팅 장치(502)로 렌더링하는 방법을 제공할 수 있다.According to the method according to the embodiment, the 3D content is generated using the interworking based on communication between the terminal 500, the
단말(500)의 앱(웹앱)과 서버(501)는 https 통신에 의해 데이터를 송/수신하며, 컴퓨팅 장치(502)는 플랫폼에 영향을 받지 않는다.The app (web app) of the terminal 500 and the
단말(500)은 제1 촬영 이미지를 획득한다. 실시예에서, 제1 촬영 이미지는 단말의 카메라를 통해 촬영되는 이미지로, 단말(500)은 3차원 콘텐츠로 제작하고자 하는 대상 객체를 포함시켜 촬영함으로써 제1 촬영 이미지를 획득할 수 있다.The terminal 500 acquires a first photographed image. In an embodiment, the first photographed image is an image photographed through the camera of the terminal, and the terminal 500 may acquire the first photographed image by including a target object to be produced as 3D content.
단말(500)은 제1 촬영 이미지를 서버로 전송한다.The terminal 500 transmits the first captured image to the server.
서버(501)에서, 수신된 제1 촬영 이미지에서 배경을 제거하고 객체 깊이를 추정될 수 있다.In the
실시예에서, 제1 촬영 이미지에서 대상 객체를 인식하고, 제1 촬영 이미지에서 대상 객체를 제외한 모든 부분을 배경으로 인식할 수 있다. 서버(501)에서, 제1 촬영 이미지에서 배경으로 인식되는 모든 영역을 제거함으로써 대상 객체를 추출할 수 있다. BASNet 등의 딥러닝 모델이 이용될 수 있다. BASNet은 영상 인식 서버로 Python 언어로 이루어져있으며, NVIdia GPU 장착 시 CUDA lib 를 연동하여 빠른 계산이 가능하고, GPU 가 없을 시에는 CPU 로 동작한다.In an embodiment, a target object may be recognized in the first captured image, and all parts of the first captured image except for the target object may be recognized as a background. The
서버(501)에서 배경이 제거되어 추출된 대상 객체에 대해서 깊이가 추정될 수 있다. 이를 위해서 VGGNet, CNN 모델 등이 이용될 수 있다.A depth may be estimated for the extracted target object by removing the background from the
단말(500)은, 추출된 대상 객체 및 대상 객체에 대한 정보를 서버(501)로부터 수신할 수 있다. 실시예에서, 배경이 제거된 객체의 영상이 전송될 수 있다. 객체에 대한 정보는 객체의 깊이 정보 등 대상 객체를 3차원으로 구현하는 데에 필요한 정보(예컨대 마스킹 데이터)를 포함할 수 있다.The terminal 500 may receive the extracted target object and information on the target object from the
단말(500)은 객체 영상을 이용하여 3차원 콘텐츠를 생성한다. 실시예에서, 단말은 3차원 콘텐츠를 생성하기 위한 앱을 실행할 수 있다. 단말은 수신된 대상 객체에 대해 3차원 골격을 생성하고, 텍스쳐(texture)를 입힘으로써 3차원 콘텐츠를 생성할 수 있다.The terminal 500 generates 3D content using the object image. In an embodiment, the terminal may execute an app for generating 3D content. The terminal may create a 3D skeleton for the received target object, and may generate 3D content by applying a texture.
실시예에서, 단말(500)은 사용자의 제어에 의해 렌더링될 3차원 콘텐츠의 시점을 변환할 수 있다. 예를 들어, 사용자는 생성된 3차원 콘텐츠를 회전시키거나, 시점을 변경하는 등 3차원 콘텐츠가 단말의 디스플레이로 노출되는 시점에 대해 단말의 디스플레이를 터치함으로써 변경, 제어할 수 있다.In an embodiment, the terminal 500 may convert the viewpoint of the 3D content to be rendered under the control of the user. For example, the user may change or control the viewpoint at which the 3D content is exposed on the display of the terminal, such as rotating the generated 3D content or changing the viewpoint, by touching the display of the terminal.
단말(500)은, 제2 촬영 이미지를 획득한다. 실시예에서, 제2 촬영 이미지는 생성된 3차원 콘텐츠를 붙여 넣을 대상 및 위치를 결정하는 데에 이용할 수 있다.The terminal 500 acquires a second captured image. In an embodiment, the second captured image may be used to determine an object and a location to paste the generated 3D content.
제2 촬영 이미지는 단말에 구비된 카메라를 통해 입력되는 영상에 해당할 수 있고, 해당 영상은 생성된 3차원 콘텐츠를 붙여 넣기 위한 디스플레이를 포함할 수 있다. 예를 들어, 제2 촬영 이미지는 PC의 모니터, 노트북의 모니터 등의 디스플레이 화면을 포함할 수 있다.The second captured image may correspond to an image input through a camera provided in the terminal, and the image may include a display for pasting the generated 3D content. For example, the second captured image may include a display screen such as a monitor of a PC or a monitor of a laptop computer.
단말(500)은 3차원 콘텐츠를 렌더링할 위치를 결정한다. 실시예에서, 3차원 콘텐츠가 렌더링될 위치는 제2 촬영 이미지에 포함되는 디스플레이 내에서 선택될 수 있다. 디스플레이에는 작업 중인 창이 포함될 수 있다. 단말은, 제2 촬영 이미지에서 디스플레이 영역을 인식할 수 있고, 해당 영역 내에서 렌더링될 위치가 선택될 수 있도록 디스플레이 영역 이외의 영역에 대해서 비활성화할 수 있다. 제2 촬영 이미지에서 디스플레이를 인식하는 방법에 대해서는 이후 자세히 설명하도록 한다.The terminal 500 determines a position to render the 3D content. In an embodiment, a position at which the 3D content is to be rendered may be selected in a display included in the second captured image. The display may contain the window being worked on. The terminal may recognize the display area from the second captured image, and may deactivate the area other than the display area so that a position to be rendered within the corresponding area can be selected. A method of recognizing the display from the second captured image will be described later in detail.
실시예에서는, 단말(500)은 카메라를 통해 단말의 디스플레이로 노출되는 영상에서 디스플레이 영역을 검출하여 표시하고, 해당 영역에서 3차원 콘텐츠가 렌더링될 위치가 결정되도록 할 수 있다. 단말의 디스플레이로 노출되는 영상 내에서 렌더링될 위치는 중심점으로 고정될 수 있으며, 카메라를 이동시켜 디스플레이 내 렌더링될 위치가 결정되도록 할 수 있다.In an embodiment, the terminal 500 may detect and display a display area from an image exposed to the display of the terminal through a camera, and determine a position where 3D content is to be rendered in the corresponding area. The position to be rendered in the image exposed on the display of the terminal may be fixed as a central point, and the position to be rendered in the display may be determined by moving the camera.
단말(500)은 제2 촬영 이미지와 3차원 콘텐츠를 해당 디스플레이와 연결된 컴퓨팅 장치(502)로 전송할 수 있다. 혹은 컴퓨팅 장치(502)가 디스플레이를 포함할 수 있다. 실시예에서, 제2 촬영 이미지는 제2 촬영 이미지 내 3차원 콘텐츠가 렌더링될 위치에 대한 정보를 포함할 수 있다.The terminal 500 may transmit the second captured image and the 3D content to the
컴퓨팅 장치(502)에서 수신된 정보에 기초하여 3차원 콘텐츠가 렌더링될 수 있다. 실시예에서, 단말(500)에서 결정된 렌더링 위치에 기초하여 3차원 콘텐츠가 해당 위치로 렌더링될 수 있다.3D content may be rendered based on the information received by the
컴퓨팅 장치(502)는 적어도 하나의 프로그램을 실행 중이며, 해당 프로그램의 실행은 컴퓨팅 장치(502)와 연결된 디스플레이를 통해 작업 여부에 대한 확인이 가능하다.The
실시예에서, 컴퓨팅 장치(502)에서 단말로부터 수신된 3차원 콘텐츠가 실행 중인 프로그램의 디스플레이의 작업 공간 상에 렌더링될 수 있다. 컴퓨팅 장치(502)에서 실행 중인 프로그램에 따라서 3차원 콘텐츠가 그대로 렌더링되거나 2차원으로 변환하여 렌더링될 수 있다.In an embodiment, the 3D content received from the terminal in the
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (19)
대상 객체를 포함하는 제1 촬영 이미지를 서버로 전송하는 단계;
상기 제1 촬영 이미지로부터 상기 대상 객체가 추출된 객체 영상을 획득하는 단계;
상기 객체 영상을 이용하여 3차원 콘텐츠를 생성하는 단계;
디스플레이를 포함하는 제2 촬영 이미지를 획득하는 단계;
상기 제2 촬영 이미지에 기초하여 상기 디스플레이 내 상기 3차원 콘텐츠가 렌더링될 위치를 결정하는 단계; 및
상기 디스플레이를 제어하는 컴퓨팅 장치로 상기 위치를 포함하는 상기 제2 촬영 이미지 및 상기 3차원 콘텐츠를 전송하는 단계
를 포함하고,
상기 3차원 콘텐츠는 상기 컴퓨팅 장치에 의하여 상기 디스플레이의 상기 위치에 표시되도록 렌더링되는,
단말의 동작 방법.
In the operating method of a terminal for rendering three-dimensional content,
transmitting a first captured image including a target object to a server;
obtaining an object image from which the target object is extracted from the first captured image;
generating 3D content using the object image;
acquiring a second captured image including a display;
determining a position where the 3D content is to be rendered in the display based on the second captured image; and
Transmitting the second captured image and the 3D content including the location to a computing device controlling the display
including,
wherein the three-dimensional content is rendered by the computing device to be displayed at the location of the display;
How the terminal operates.
상기 디스플레이를 포함하는 제2 촬영 이미지를 획득하는 단계는,
상기 제2 촬영 이미지로부터 상기 디스플레이의 외곽선을 추출하는 단계; 및
상기 디스플레이에 해당하는 영역을 인식하는 단계
를 포함하는,
단말의 동작 방법.
According to claim 1,
The step of acquiring a second photographed image including the display comprises:
extracting an outline of the display from the second captured image; and
Recognizing an area corresponding to the display
containing,
How the terminal operates.
상기 제2 촬영 이미지에 기초하여 상기 디스플레이 내 상기 3차원 콘텐츠가 렌더링될 위치를 결정하는 단계는,
상기 디스플레이 내 특징점을 추출하는 단계; 및
상기 디스플레이를 상기 단말 내 화면에 매칭하는 단계
를 포함하는,
단말의 동작 방법.
According to claim 1,
Determining a position where the 3D content is to be rendered in the display based on the second captured image includes:
extracting feature points in the display; and
Matching the display to the screen in the terminal
containing,
How the terminal operates.
상기 제2 촬영 이미지로부터 상기 모니터 내 상기 3차원 콘텐츠가 렌더링될 위치를 결정하는 단계는,
상기 디스플레이의 좌표 정보를 획득하는 단계
상기 디스플레이의 좌표 내 상기 3차원 콘텐츠가 렌더링될 좌표를 결정하는 단계
를 포함하는,
단말의 동작 방법.
According to claim 1,
The step of determining a position where the 3D content is to be rendered in the monitor from the second captured image,
obtaining coordinate information of the display;
determining the coordinates at which the three-dimensional content is to be rendered within the coordinates of the display;
containing,
How the terminal operates.
상기 컴퓨팅 장치에서 실행 중인 프로그램에 기초하여 상기 3차원 콘텐츠가 렌더링되는,
단말의 동작 방법.
5. The method of claim 4,
The three-dimensional content is rendered based on the program running on the computing device,
How the terminal operates.
상기 프로그램이 3차원 프로그램인 경우, 상기 3차원 콘텐츠가 상기 3차원 프로그램에 렌더링되는,
단말의 동작 방법.
6. The method of claim 5,
When the program is a three-dimensional program, the three-dimensional content is rendered in the three-dimensional program,
How the terminal operates.
상기 프로그램이 3차원 프로그램이 아닌 경우, 상기 3차원 콘텐츠가 이미지화되어 상기 프로그램에 렌더링되는,
단말의 동작 방법.
6. The method of claim 5,
If the program is not a three-dimensional program, the three-dimensional content is imaged and rendered in the program,
How the terminal operates.
상기 객체 영상을 이용하여 3차원 콘텐츠를 생성하는 단계는,
사용자로부터 입력되는 제어 명령에 기초하여 상기 3차원 콘텐츠의 시점을 을 변환하는 단계
를 포함하는,
단말의 동작 방법.
According to claim 1,
The step of generating 3D content using the object image includes:
Transforming the viewpoint of the 3D content based on a control command input from the user
containing,
How the terminal operates.
상기 객체 영상을 이용하여 3차원 콘텐츠를 생성하는 단계는,
상기 서버로부터 획득한 상기 객체 영상의 깊이 정보를 이용하여 상기 3차원 콘텐츠를 생성하는 단계
를 포함하는,
단말의 동작 방법.
According to claim 1,
The step of generating 3D content using the object image includes:
Generating the 3D content by using the depth information of the object image obtained from the server
containing,
How the terminal operates.
A computer program stored on a computer-readable medium in combination with hardware to execute the method of any one of claims 1 to 9.
하나 이상의 프로세서;
메모리; 및
상기 메모리에 저장되어 있으며 상기 하나 이상의 프로세서에 의하여 실행되도록 구성되는 하나 이상의 프로그램을 포함하고,
상기 프로그램은,
대상 객체를 포함하는 제1 촬영 이미지를 서버로 전송하는 단계;
상기 제1 촬영 이미지로부터 상기 대상 객체가 추출된 객체 영상을 획득하는 단계;
상기 객체 영상을 이용하여 3차원 콘텐츠를 생성하는 단계;
디스플레이를 포함하는 제2 촬영 이미지를 획득하는 단계;
상기 제2 촬영 이미지에 기초하여 상기 디스플레이 내 상기 3차원 콘텐츠가 렌더링될 위치를 결정하는 단계; 및
상기 디스플레이를 제어하는 컴퓨팅 장치로 상기 위치를 포함하는 상기 제2 촬영 이미지 및 상기 3차원 콘텐츠를 전송하는 단계
를 포함하고,
상기 3차원 콘텐츠는 상기 컴퓨팅 장치에 의하여 상기 디스플레이의 상기 위치에 표시되도록 렌더링되는,
단말.
In the terminal for rendering 3D content,
one or more processors;
Memory; and
one or more programs stored in the memory and configured to be executed by the one or more processors;
The program is
transmitting a first captured image including a target object to a server;
obtaining an object image from which the target object is extracted from the first captured image;
generating 3D content using the object image;
acquiring a second captured image including a display;
determining a position where the 3D content is to be rendered in the display based on the second captured image; and
Transmitting the second captured image and the 3D content including the location to a computing device controlling the display
including,
wherein the three-dimensional content is rendered by the computing device to be displayed at the location of the display;
terminal.
상기 디스플레이를 포함하는 제2 촬영 이미지를 획득하는 단계는,
상기 제2 촬영 이미지로부터 상기 디스플레이의 외곽선을 추출하는 단계; 및
상기 디스플레이에 해당하는 영역을 인식하는 단계
를 포함하는,
단말.
12. The method of claim 11,
The step of acquiring a second photographed image including the display comprises:
extracting an outline of the display from the second captured image; and
Recognizing an area corresponding to the display
containing,
terminal.
상기 제2 촬영 이미지에 기초하여 상기 디스플레이 내 상기 3차원 콘텐츠가 렌더링될 위치를 결정하는 단계는,
상기 디스플레이 내 특징점을 추출하는 단계; 및
상기 디스플레이를 상기 단말 내 화면에 매칭하는 단계
를 포함하는,
단말.
12. The method of claim 11,
Determining a position where the 3D content is to be rendered in the display based on the second captured image includes:
extracting feature points in the display; and
Matching the display to the screen in the terminal
containing,
terminal.
상기 제2 촬영 이미지로부터 상기 모니터 내 상기 3차원 콘텐츠가 렌더링될 위치를 결정하는 단계는,
상기 디스플레이의 좌표 정보를 획득하는 단계
상기 디스플레이의 좌표 내 상기 3차원 콘텐츠가 렌더링될 좌표를 결정하는 단계
를 포함하는,
단말.
12. The method of claim 11,
The step of determining a position where the 3D content is to be rendered in the monitor from the second captured image,
obtaining coordinate information of the display;
determining the coordinates at which the three-dimensional content is to be rendered within the coordinates of the display;
containing,
terminal.
상기 컴퓨팅 장치에서 실행 중인 프로그램에 기초하여 상기 3차원 콘텐츠가 렌더링되는,
단말.
15. The method of claim 14,
The three-dimensional content is rendered based on the program running on the computing device,
terminal.
상기 프로그램이 3차원 프로그램인 경우, 상기 3차원 콘텐츠가 상기 3차원 프로그램에 렌더링되는,
단말.
16. The method of claim 15,
When the program is a three-dimensional program, the three-dimensional content is rendered in the three-dimensional program,
terminal.
상기 프로그램이 3차원 프로그램이 아닌 경우, 상기 3차원 콘텐츠가 이미지화되어 상기 프로그램에 렌더링되는,
단말.
16. The method of claim 15,
If the program is not a three-dimensional program, the three-dimensional content is imaged and rendered in the program,
terminal.
상기 객체 영상을 이용하여 3차원 콘텐츠를 생성하는 단계는,
사용자로부터 입력되는 제어 명령에 기초하여 상기 3차원 콘텐츠의 시점을 을 변환하는 단계
를 포함하는,
단말.
12. The method of claim 11,
The step of generating 3D content using the object image includes:
Transforming the viewpoint of the 3D content based on a control command input from the user
containing,
terminal.
상기 객체 영상을 이용하여 3차원 콘텐츠를 생성하는 단계는,
상기 서버로부터 획득한 상기 객체 영상의 깊이 정보를 이용하여 상기 3차원 콘텐츠를 생성하는 단계
를 포함하는,
단말.12. The method of claim 11,
The step of generating 3D content using the object image includes:
Generating the 3D content by using the depth information of the object image obtained from the server
containing,
terminal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200171991A KR102570286B1 (en) | 2020-12-10 | 2020-12-10 | Terminal for rendering 3d content and operaing method of thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200171991A KR102570286B1 (en) | 2020-12-10 | 2020-12-10 | Terminal for rendering 3d content and operaing method of thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220082260A true KR20220082260A (en) | 2022-06-17 |
KR102570286B1 KR102570286B1 (en) | 2023-08-23 |
Family
ID=82269020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200171991A KR102570286B1 (en) | 2020-12-10 | 2020-12-10 | Terminal for rendering 3d content and operaing method of thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102570286B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102566879B1 (en) * | 2023-01-03 | 2023-08-11 | (주)언커버3디모델링 | 3-Dimension Modeling Distribution Method and Computer Program |
KR102576986B1 (en) * | 2022-10-20 | 2023-09-11 | 이어진 | Building VR content provision system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110027272A (en) * | 2009-09-10 | 2011-03-16 | (주)트라이디커뮤니케이션 | System for providing 3d avata service using background image and method therefor |
KR20140057916A (en) * | 2012-11-05 | 2014-05-14 | 삼성전자주식회사 | Image processing apparatus and method |
-
2020
- 2020-12-10 KR KR1020200171991A patent/KR102570286B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110027272A (en) * | 2009-09-10 | 2011-03-16 | (주)트라이디커뮤니케이션 | System for providing 3d avata service using background image and method therefor |
KR20140057916A (en) * | 2012-11-05 | 2014-05-14 | 삼성전자주식회사 | Image processing apparatus and method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102576986B1 (en) * | 2022-10-20 | 2023-09-11 | 이어진 | Building VR content provision system |
KR102566879B1 (en) * | 2023-01-03 | 2023-08-11 | (주)언커버3디모델링 | 3-Dimension Modeling Distribution Method and Computer Program |
Also Published As
Publication number | Publication date |
---|---|
KR102570286B1 (en) | 2023-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220075453A1 (en) | Ar scenario-based gesture interaction method, storage medium, and communication terminal | |
KR101135186B1 (en) | System and method for interactive and real-time augmented reality, and the recording media storing the program performing the said method | |
KR101808840B1 (en) | Depth information extracting method based on machine learning and apparatus thereof | |
US8660362B2 (en) | Combined depth filtering and super resolution | |
KR102476016B1 (en) | Apparatus and method for determining position of eyes | |
CN110866977B (en) | Augmented reality processing method, device, system, storage medium and electronic equipment | |
EP2531979B1 (en) | Depth camera compatibility | |
JP6237804B2 (en) | Abnormal situation detection method and apparatus | |
JP2020507850A (en) | Method, apparatus, equipment, and storage medium for determining the shape of an object in an image | |
US10950056B2 (en) | Apparatus and method for generating point cloud data | |
JP2014110043A (en) | Device, method and program for connecting a plurality of three-dimensional models | |
KR102570286B1 (en) | Terminal for rendering 3d content and operaing method of thereof | |
EP4086853A2 (en) | Method and apparatus for generating object model, electronic device and storage medium | |
KR102333768B1 (en) | Hand recognition augmented reality-intraction apparatus and method | |
CN116168383A (en) | Three-dimensional target detection method, device, system and storage medium | |
KR20220088289A (en) | Apparatus and method for estimating object pose | |
JP2022014921A (en) | Three-dimensional sensing information acquisition method and road side apparatus based on external parameter of road side camera | |
JP2017033556A (en) | Image processing method and electronic apparatus | |
JP6815743B2 (en) | Image processing equipment and its methods, programs | |
CN113327320A (en) | Three-dimensional model reconstruction method, device, equipment and computer readable storage medium | |
KR20160073491A (en) | Interactive progress monitoring system using mobile terminal and user interface of the mobile terminal | |
CN115222895B (en) | Image generation method, device, equipment and storage medium | |
CN111192350A (en) | Motion capture system and method based on 5G communication VR helmet | |
KR102310958B1 (en) | Wide viewing angle stereo camera apparatus and depth image processing method using the same | |
KR102472115B1 (en) | Apparatus and method for providing augmented reality-based video conference for multi-party online business collaboration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |