[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20220082260A - Terminal for rendering 3d content and operaing method of thereof - Google Patents

Terminal for rendering 3d content and operaing method of thereof Download PDF

Info

Publication number
KR20220082260A
KR20220082260A KR1020200171991A KR20200171991A KR20220082260A KR 20220082260 A KR20220082260 A KR 20220082260A KR 1020200171991 A KR1020200171991 A KR 1020200171991A KR 20200171991 A KR20200171991 A KR 20200171991A KR 20220082260 A KR20220082260 A KR 20220082260A
Authority
KR
South Korea
Prior art keywords
content
display
terminal
captured image
rendered
Prior art date
Application number
KR1020200171991A
Other languages
Korean (ko)
Other versions
KR102570286B1 (en
Inventor
유한규
최지희
Original Assignee
주식회사 엘지유플러스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘지유플러스 filed Critical 주식회사 엘지유플러스
Priority to KR1020200171991A priority Critical patent/KR102570286B1/en
Publication of KR20220082260A publication Critical patent/KR20220082260A/en
Application granted granted Critical
Publication of KR102570286B1 publication Critical patent/KR102570286B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

실시예는, 3차원 콘텐츠를 렌더링하기 위한 단말의 동작 방법에 대한 것이다. 를 포함할 수 있다. 단말의 동작 방법에 있어서, 대상 객체를 포함하는 제1 촬영 이미지를 서버로 전송하는 단계; 제1 촬영 이미지로부터 대상 객체가 추출된 객체 영상을 획득하는 단계; 객체 영상을 이용하여 3차원 콘텐츠를 생성하는 단계; 디스플레이를 포함하는 제2 촬영 이미지를 획득하는 단계; 제2 촬영 이미지에 기초하여 디스플레이 내 3차원 콘텐츠가 렌더링될 위치를 결정하는 단계; 및 디스플레이를 제어하는 컴퓨팅 장치로 위치를 포함하는 제2 촬영 이미지 및 3차원 콘텐츠를 전송하는 단계를 포함하고, 3차원 콘텐츠는 컴퓨팅 장치에 의하여 디스플레이의 위치에 표시되도록 렌더링되는, 단말의 동작 방법.The embodiment relates to a method of operating a terminal for rendering 3D content. may include A method of operating a terminal, comprising: transmitting a first photographed image including a target object to a server; obtaining an object image in which the target object is extracted from the first captured image; generating 3D content using an object image; acquiring a second captured image including a display; determining a position in the display where the 3D content is to be rendered based on the second captured image; and transmitting a second captured image including a location and three-dimensional content to a computing device controlling the display, wherein the three-dimensional content is rendered to be displayed at the location of the display by the computing device.

Figure P1020200171991
Figure P1020200171991

Description

3차원 콘텐츠를 렌더링하기 위한 단말 및 그 동작 방법{TERMINAL FOR RENDERING 3D CONTENT AND OPERAING METHOD OF THEREOF}A terminal for rendering three-dimensional content and an operating method thereof

실시예는, 3차원 콘텐츠를 렌더링하기 위한 단말 및 그 동작 방법에 관한 것이다.The embodiment relates to a terminal for rendering 3D content and an operating method thereof.

일반적으로 선박, 플랜트, 항공기, 건물 등과 같은 특정 구조물의 설계 시, 2D 캐드 프로그램 예컨대 '오토캐드(AUTOCAD)' 등을 사용하여 설계 작업을 한 후, 해당 구조물의 전체적인 입체적 형상과 구조물의 수정, 변경 문제 등을 용이하게 파악하기 위하여 3D 캐드 도면으로 전환하는 작업을 수행하게 된다.In general, when designing a specific structure such as a ship, plant, aircraft, or building, after designing using a 2D CAD program such as 'AUTOCAD', the overall three-dimensional shape of the structure and the modification or change of the structure In order to easily identify problems, etc., the work of converting to 3D CAD drawings is performed.

또한, 3차원 콘텐츠를 생성 및 렌더링하기 위해 획득한 이미지의 배경을 제거함으로써 객체를 추출하는 방법은 제시되어 있으나, 이를 활용하는 방법이 다양하게 존재하지 않는다.In addition, a method of extracting an object by removing the background of an image obtained to generate and render 3D content has been proposed, but various methods of using the method do not exist.

디자인 작업 시 디자이너가 복잡한 3차원 모델을 생성하기 위해서는 많은 시간이 소요되는데, 3차원 모델을 다른 작업 공간으로 가져가게 되면 모델을 변경하기 어렵다.It takes a lot of time for a designer to create a complex 3D model during design work, and it is difficult to change the model when the 3D model is brought to another workspace.

이와 관련하여 한국등록특허 제1473956호에서는 "2d 평면도를 기초로 한 3d 공간정보 모델링 방법 및 해당 3d 공간 모델을 이용한 영상 관제 시스템"이 개시된다.In this regard, Korean Patent Registration No. 1473956 discloses "a 3d spatial information modeling method based on a 2d plan view and an image control system using the 3d spatial model".

실시예에 따른 발명은, 3차원 물체를 촬영한 영상을 이용하여 3차원 콘텐츠를 생성하고, 3차원 콘텐츠를 렌더링하는 방법을 제공하고자 한다.The invention according to an embodiment is to provide a method of generating 3D content by using an image obtained by photographing a 3D object and rendering the 3D content.

자세하게는, 3차원 콘텐츠를 만드는 과정에 사진 촬영을 이용하여 여러 과정(컨셉 디자인, 볼륨 조절, 테스팅, 반복)을 간소화하고, 단말에서 생성된 3차원 콘텐츠를 PC등의 컴퓨팅 장치의 디스플레이로 렌더링하는 방법을 제공하고자 한다.In detail, in the process of creating 3D content, various processes (concept design, volume control, testing, iteration) are simplified by using photography, and the 3D content generated in the terminal is rendered to the display of a computing device such as a PC. We want to provide a way.

실시예에 따른 발명은, 3차원 물체를 촬영한 영상을 이용하여 3차원 콘텐츠를 생성하고, 3차원 콘텐츠를 렌더링하는 방법을 제공할 수 있다.The invention according to an embodiment may provide a method of generating 3D content using an image obtained by photographing a 3D object and rendering the 3D content.

자세하게는, 3차원 콘텐츠를 만드는 과정에 사진 촬영을 이용하여 여러 과정(컨셉 디자인, 볼륨 조절, 테스팅, 반복)을 간소화하고, 단말에서 생성된 3차원 콘텐츠를 PC등의 컴퓨팅 장치의 디스플레이로 렌더링하는 방법을 제공할 수 있다.In detail, in the process of creating 3D content, various processes (concept design, volume control, testing, iteration) are simplified by using photography, and the 3D content generated in the terminal is rendered to the display of a computing device such as a PC. method can be provided.

도 1은 실시예에서, 3차원 콘텐츠를 렌더링하는 방법을 설명하기 위한 흐름도이다.
도 2는 실시예에서, 3차원 콘텐츠가 컴퓨팅 장치에서 렌더링되는 방법을 설명하기 위한 도면이다.
도 3은 실시예에서, 3차원 콘텐츠를 렌더링하기 위한 위치를 결정하는 방법을 설명하기 위한 도면이다.
도 4는 실시예에서, 3차원 콘텐츠 렌더링 방법에 대한 예시이다.
도 5는 실시예에서, 단말의 구성에 대해 설명하기 위한 블록도이다.
1 is a flowchart illustrating a method of rendering 3D content according to an embodiment.
2 is a diagram for explaining a method of rendering 3D content in a computing device according to an embodiment.
3 is a diagram for explaining a method of determining a position for rendering 3D content according to an embodiment.
4 is an example of a 3D content rendering method in the embodiment.
5 is a block diagram for explaining the configuration of a terminal in the embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all modifications, equivalents and substitutes for the embodiments are included in the scope of the rights.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for the purpose of description only, and should not be construed as limiting. The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that a feature, number, step, operation, component, part, or a combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are given the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In describing the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.

또한, 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다. In addition, in describing the components of the embodiment, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, or order of the elements are not limited by the terms. When it is described that a component is "connected", "coupled" or "connected" to another component, the component may be directly connected or connected to the other component, but another component is between each component. It will be understood that may also be "connected", "coupled" or "connected".

어느 하나의 실시 예에 포함된 구성요소와, 공통적인 기능을 포함하는 구성요소는, 다른 실시 예에서 동일한 명칭을 사용하여 설명하기로 한다. 반대되는 기재가 없는 이상, 어느 하나의 실시 예에 기재한 설명은 다른 실시 예에도 적용될 수 있으며, 중복되는 범위에서 구체적인 설명은 생략하기로 한다.Components included in one embodiment and components having a common function will be described using the same names in other embodiments. Unless otherwise stated, descriptions described in one embodiment may be applied to other embodiments as well, and detailed descriptions within the overlapping range will be omitted.

도 1은 실시예에서, 3차원 콘텐츠를 렌더링하는 방법을 설명하기 위한 흐름도이다.1 is a flowchart illustrating a method of rendering 3D content according to an embodiment.

실시예에 따른 방법에 의하면, 단말, 서버 및 컴퓨팅 장치 간의 통신에 기초한 연동성을 이용하여 3차원 콘텐츠를 생성하고, 컴퓨팅 장치로 렌더링하는 방법을 제공할 수 있다.According to the method according to the embodiment, it is possible to provide a method of generating 3D content using interworking based on communication between a terminal, a server, and a computing device, and rendering the 3D content by the computing device.

단계(101)에서 단말은 제1 촬영 이미지를 획득한다. 실시예에서, 제1 촬영 이미지는 단말의 카메라를 통해 촬영되는 이미지로, 단말은 3차원 콘텐츠로 제작하고자 하는 대상 객체를 포함시켜 촬영함으로써 제1 촬영 이미지를 획득할 수 있다.In step 101, the terminal acquires a first captured image. In an embodiment, the first captured image is an image captured by the camera of the terminal, and the terminal may acquire the first captured image by capturing the target object to be produced as 3D content.

단계(102)에서 단말은 제1 촬영 이미지를 서버로 전송한다.In step 102, the terminal transmits the first captured image to the server.

단계(103)에서 서버는, 수신된 제1 촬영 이미지에서 배경을 제거하고 객체 깊이를 추정한다.In step 103 , the server removes the background from the received first captured image and estimates the object depth.

실시예에서, 제1 촬영 이미지에서 대상 객체를 인식하고, 제1 촬영 이미지에서 대상 객체를 제외한 모든 부분을 배경으로 인식할 수 있다. 서버는, 제1 촬영 이미지에서 배경으로 인식되는 모든 영역을 제거함으로써 대상 객체를 추출할 수 있다. 이를 위해서 서버는 BASNet 등의 딥러닝 모델을 이용할 수 있다.In an embodiment, a target object may be recognized in the first captured image, and all parts of the first captured image except for the target object may be recognized as a background. The server may extract the target object by removing all regions recognized as the background from the first captured image. For this, the server can use a deep learning model such as BASNet.

서버는 배경이 제거되어 추출된 대상 객체에 대해서 깊이를 추정할 수 있다. 이를 위해서 VGGNet, CNN 모델 등이 이용될 수 있다.The server may estimate the depth of the extracted target object by removing the background. For this, VGGNet, CNN model, etc. can be used.

단계(104)에서 서버는, 추출된 대상 객체 및 대상 객체에 대한 정보를 단말로 전송할 수 있다. 실시예에서, 배경이 제거된 객체의 영상을 전송할 수 있다. 객체에 대한 정보는 객체의 깊이 정보 등 대상 객체를 3차원으로 구현하는 데에 필요한 정보(예컨대 마스킹 데이터)를 포함할 수 있다.In step 104 , the server may transmit the extracted target object and information on the target object to the terminal. In an embodiment, the image of the object from which the background is removed may be transmitted. The information about the object may include information (eg, masking data) necessary to implement the target object in three dimensions, such as depth information of the object.

단계(105)에서 단말은 객체 여상을 이용하여 3차원 콘텐츠를 생성한다. 실시예에서, 단말은 3차원 콘텐츠를 생성하기 위한 앱을 실행할 수 있다. 단말은 수신된 대상 객체에 대해 3차원 골격을 생성하고, 텍스쳐(texture)를 입힘으로써 3차원 콘텐츠를 생성할 수 있다.In step 105, the terminal generates 3D content using the object image. In an embodiment, the terminal may execute an app for generating 3D content. The terminal may create a 3D skeleton for the received target object, and may generate 3D content by applying a texture.

실시예에서, 단말은 사용자의 제어에 의해 렌더링될 3차원 콘텐츠의 시점을 변환할 수 있다. 예를 들어, 사용자는 생성된 3차원 콘텐츠를 회전시키거나, 시점을 변경하는 등 3차원 콘텐츠가 단말의 디스플레이로 노출되는 시점에 대해 단말의 디스플레이를 터치함으로써 변경, 제어할 수 있다.In an embodiment, the terminal may convert the viewpoint of the 3D content to be rendered under the control of the user. For example, the user may change or control the viewpoint at which the 3D content is exposed on the display of the terminal, such as rotating the generated 3D content or changing the viewpoint, by touching the display of the terminal.

단계(106)에서 단말은, 제2 촬영 이미지를 획득한다. 실시예에서, 제2 촬영 이미지는 생성된 3차원 콘텐츠를 붙여 넣을 대상 및 위치를 결정하는 데에 이용할 수 있다.In step 106, the terminal acquires a second captured image. In an embodiment, the second captured image may be used to determine an object and a location to paste the generated 3D content.

제2 촬영 이미지는 단말에 구비된 카메라를 통해 입력되는 영상에 해당할 수 있고, 해당 영상은 생성된 3차원 콘텐츠를 붙여 넣기 위한 디스플레이를 포함할 수 있다. 예를 들어, 제2 촬영 이미지는 PC의 모니터, 노트북의 모니터 등의 디스플레이 화면을 포함할 수 있다.The second captured image may correspond to an image input through a camera provided in the terminal, and the image may include a display for pasting the generated 3D content. For example, the second captured image may include a display screen such as a monitor of a PC or a monitor of a laptop computer.

단계(107)에서 단말은 3차원 콘텐츠를 렌더링할 위치를 결정한다. 실시예에서, 3차원 콘텐츠가 렌더링될 위치는 제2 촬영 이미지에 포함되는 디스플레이 내에서 선택될 수 있다. 디스플레이에는 작업 중인 창이 포함될 수 있다. 단말은, 제2 촬영 이미지에서 디스플레이 영역을 인식할 수 있고, 해당 영역 내에서 렌더링될 위치가 선택될 수 있도록 디스플레이 영역 이외의 영역에 대해서 비활성화할 수 있다. 제2 촬영 이미지에서 디스플레이를 인식하는 방법에 대해서는 이후 자세히 설명하도록 한다.In step 107, the terminal determines a location to render the 3D content. In an embodiment, a position at which the 3D content is to be rendered may be selected in a display included in the second captured image. The display may contain the window being worked on. The terminal may recognize the display area from the second captured image, and may deactivate the area other than the display area so that a position to be rendered within the corresponding area can be selected. A method of recognizing the display from the second captured image will be described later in detail.

실시예에서는, 단말은 카메라를 통해 단말의 디스플레이로 노출되는 영상에서 디스플레이 영역을 검출하여 표시하고, 해당 영역에서 3차원 콘텐츠가 렌더링될 위치가 결정되도록 할 수 있다.In an embodiment, the terminal may detect and display a display area from an image exposed to the display of the terminal through a camera, and determine a position where 3D content is to be rendered in the corresponding area.

단계(108)에서 단말은 제2 촬영 이미지와 3차원 콘텐츠를 해당 디스플레이와 연결된 컴퓨팅 장치로 전송할 수 있다. 혹은 컴퓨팅 장치가 디스플레이를 포함할 수 있다. 실시예에서, 제2 촬영 이미지는 제2 촬영 이미지 내 3차원 콘텐츠가 렌더링될 위치에 대한 정보를 포함할 수 있다.In step 108, the terminal may transmit the second captured image and the 3D content to the computing device connected to the display. Alternatively, the computing device may include a display. In an embodiment, the second captured image may include information on a location where 3D content is to be rendered in the second captured image.

단계(109)에서 컴퓨팅 장치는 수신된 정보에 기초하여 3차원 콘텐츠를 렌더링한다. 실시예에서, 단말에서 결정된 렌더링 위치에 기초하여 3차원 콘텐츠를 해당 위치로 렌더링할 수 있다.In step 109, the computing device renders 3D content based on the received information. In an embodiment, based on the rendering position determined in the terminal, 3D content may be rendered to the corresponding position.

컴퓨팅 장치는 적어도 하나의 프로그램을 실행 중이며, 해당 프로그램의 실행은 컴퓨팅 장치와 연결된 디스플레이를 통해 확인될 수 있다.The computing device is executing at least one program, and the execution of the corresponding program may be confirmed through a display connected to the computing device.

실시예에서, 컴퓨팅 장치는 단말로부터 수신된 3차원 콘텐츠를 실행 중인 프로그램의 디스플레이 작업 공간 상에 렌더링할 수 있다. 컴퓨팅 장치에서 실행 중인 프로그램에 따라서 3차원 콘텐츠를 그대로 렌더링하거나 2차원으로 변환하여 렌더링할 수 있다. 도 2를 통해 해당 실시예에 대해서 자세히 설명하도록 한다.In an embodiment, the computing device may render the 3D content received from the terminal on the display workspace of the running program. Depending on the program running on the computing device, 3D content may be rendered as it is or converted to 2D and rendered. Referring to FIG. 2, the embodiment will be described in detail.

도 2는 실시예에서, 3차원 콘텐츠가 컴퓨팅 장치에서 렌더링되는 방법을 설명하기 위한 도면이다.2 is a diagram for explaining a method of rendering 3D content in a computing device according to an embodiment.

단계(201)에서 단말은 3차원 콘텐츠를 생성할 수 있다. 3차원 콘텐츠를 생성하는 실시예는 도 1의 설명을 참조할 수 있다.In step 201, the terminal may generate 3D content. An embodiment of generating 3D content may refer to the description of FIG. 1 .

단계(202)에서 단말은 3차원 콘텐츠의 시점을 변환할 수 있다. 예를 들어, 생성된 콘텐츠를 좌우 또는 앞뒤 방향 등으로 자유롭게 회전시킴으로써 3차원 콘텐츠가 디스플레이 상에 표현되는 공간 상의 시점을 변경할 수 있다.In step 202, the terminal may change the viewpoint of the 3D content. For example, by freely rotating the generated content in the left-right or front-back direction, the viewpoint in space in which the 3D content is expressed on the display may be changed.

단계(203)에서 단말은 단말의 카메라를 통해 입력되는 영상에서 3차원 콘텐츠를 렌더링할 위치를 타겟팅 할 수 있다. 단말은 카메라를 통해 단말의 디스플레이로 노출되는 영상에서 디스플레이 영역을 검출하여 표시하고, 해당 영역에서 3차원 콘텐츠가 렌더링될 위치가 결정되도록 할 수 있다. 실시예에서, 캡쳐된 이미지에 3차원 콘텐츠가 렌더링될 위치가 타겟팅 되거나 또는 카메라를 통해 실시간으로 입력되는 영상에 대해서 3차원 콘텐츠가 렌더링될 위치가 타겟팅될 수 있다.In step 203, the terminal may target a location to render the 3D content in the image input through the camera of the terminal. The terminal may detect and display the display area from the image exposed to the display of the terminal through the camera, and determine a position where the 3D content is to be rendered in the corresponding area. In an embodiment, a location where 3D content is to be rendered may be targeted to the captured image, or a location where 3D content will be rendered may be targeted with respect to an image inputted in real time through a camera.

실시예에 있어서, 단말은 3차원 콘텐츠를 컴퓨팅 장치로 전송하고, 컴퓨팅 장치는 실행 중인 프로그램에 대한 정보에 기초하여 3차원 콘텐츠를 그대로 렌더링하거나 2차원으로 변환하여 렌더링할 수 있다.In an embodiment, the terminal transmits the 3D content to the computing device, and the computing device may render the 3D content as it is or convert it into 2D based on information about the program being executed.

다른 실시예에서, 3차원 콘텐츠가 렌더링될 컴퓨팅 장치에서 실행 중인 프로그램에 대한 정보에 기초하여 3차원 콘텐츠가 그대로 전송되거나 3차원 콘텐츠가 2차원 콘텐츠로 변환하여 전송될 수 있다.In another embodiment, the 3D content may be transmitted as it is, or the 3D content may be converted into 2D content and transmitted based on information about a program running in the computing device to which the 3D content is to be rendered.

단계(204)에서 실행 중인 프로그램이 3D 프로그램인 경우, 예를 들어 3D Max, Maya 등의 프로그램인 경우, 컴퓨팅 장치는 3차원 콘텐츠를 해당 프로그램의 작업 공간으로 렌더링할 수 있다. 실시예에서, 제2 촬영 이미지에 기초하여, 제2 촬영 이미지의 결정된 위치로 3차원 콘텐츠를 렌더링할 수 있다.When the program being executed in step 204 is a 3D program, for example, a program such as 3D Max or Maya, the computing device may render the 3D content to the workspace of the corresponding program. In an embodiment, based on the second captured image, 3D content may be rendered to a determined position of the second captured image.

실행 중인 프로그램이 2D 프로그램인 경우, 예를 들어 Power Point, Word 등의 프로그램인 경우, 단계(205)에서 컴퓨팅 장치는 3차원 콘텐츠를 2차원 콘텐츠로 변환할 수 있다. 실시예에 따라서 단계(205)는 단말에서 이루어질 수도 있다.When the running program is a 2D program, for example, a program such as Power Point or Word, the computing device may convert 3D content into 2D content in step 205 . According to an embodiment, step 205 may be performed in the terminal.

이어 단계(206)에서 컴퓨팅 장치는 2차원으로 변환된 2차원 콘텐츠를 실행 중인 프로그램의 작업 공간으로 렌더링할 수 있다.Subsequently, in step 206 , the computing device may render the 2D content converted into 2D into the workspace of the running program.

실시예에서, 컴퓨팅 장치에서 3차원 콘텐츠를 렌더링 할 시, 3차원 콘텐츠의 변환된 시점을 기준으로 하여 이미지 형태로 3차원 콘텐츠를 렌더링할 수 있다.In an embodiment, when the computing device renders the 3D content, the 3D content may be rendered in the form of an image based on the converted viewpoint of the 3D content.

도 3은 실시예에서, 3차원 콘텐츠를 렌더링하기 위한 위치를 결정하는 방법을 설명하기 위한 도면이다.3 is a diagram for explaining a method of determining a position for rendering 3D content according to an embodiment.

실시예에 있어서, 3차원 콘텐츠가 생성된 이후, 3차원 콘텐츠를 렌더링할 위치를 결정하기 위해 단말에서 디스플레이 영역을 추출하고, 디스플레이 영역에서 렌더링 위치를 결정하는 방법에 대해 설명한다. 이를 위해서 단말과 컴퓨팅 장치는 상호 간 연동될 수 있다.In an embodiment, after 3D content is generated, a method of extracting a display area from a terminal to determine a position to render 3D content and determining a rendering position in the display area will be described. To this end, the terminal and the computing device may interact with each other.

단계(310)에서 단말은 제2 촬영 이미지를 획득할 수 있다.In step 310, the terminal may acquire a second captured image.

실시예에서, 스마트폰 등의 단말에서 앱을 이용하여 카메라에서 촬영되는 이미지가 컴퓨팅 장치와 연결된 디스플레이 영역을 포함하도록 이미지를 촬영할 수 있다. 실시예에서, 앱을 통해 카메라를 통해 실시간으로 감지되는 영상 내에서 디스플레이 영역을 감지하고, 해당 영역을 가이드할 수 있다.In an embodiment, by using an app in a terminal such as a smartphone, an image may be captured such that the image captured by the camera includes a display area connected to the computing device. In an embodiment, a display area may be detected within an image detected in real time through a camera through an app, and the corresponding area may be guided.

단계(320)에서 단말은, 제2 촬영 이미지로부터 디스플레이 영역을 인식할 수 있다.In step 320 , the terminal may recognize the display area from the second captured image.

실시예에서, 단말은 제2 촬영 이미지로부터 디스플레이의 외곽선을 추출할 수 있다. 더불어, 디스플레이의 외곽선을 기준으로 디스플레이를 통해 출력되는 화면을 인식할 수 있다. 제2 촬영 이미지가 디스플레이의 일부가 인식되더라도 외곽선을 추출할 수 있다. 단말은 제2 촬영 이미지를 컴퓨팅 장치로 전송할 수 있다.In an embodiment, the terminal may extract the outline of the display from the second captured image. In addition, a screen output through the display may be recognized based on the outline of the display. Even if a part of the display of the second captured image is recognized, the outline may be extracted. The terminal may transmit the second captured image to the computing device.

단계(330)에서 컴퓨팅 장치는 디스플레이 전체에 대한 영상을 획득할 수 있다.In operation 330, the computing device may acquire an image of the entire display.

실시예에서, 컴퓨팅 장치에서 제2 촬영 이미지를 수신하면, 컴퓨팅 장치는 디스플레이 영역에 대해서 스크린 캡쳐를 실행하여 제2 촬영 이미지에 포함된 디스플레이 영역에 출력되는 이미지에 대응하는 디스플레이 전체에 대한 캡쳐 이미지를 획득할 수 있다.In an embodiment, upon receiving the second captured image from the computing device, the computing device executes a screen capture on the display area to obtain a captured image for the entire display corresponding to the image output to the display area included in the second captured image. can be obtained

단계(340)에서 컴퓨팅 장치는 디스플레이의 전체 이미지에 대한 이미지 특징점을 추출할 수 있다.In operation 340, the computing device may extract image feature points for the entire image of the display.

실시예에서, 컴퓨팅 장치는 단말에서 전송된 제2 촬영 이미지에 포함되는 디스플레이 영역에 대한 특징점을 추출하고, 디스플레이 전체를 캡쳐한 캡쳐 이미지의 특징점을 추출할 수 있다.In an embodiment, the computing device may extract a feature point of a display area included in the second captured image transmitted from the terminal, and extract a feature point of a captured image that captures the entire display.

단계(350)에서 컴퓨팅 장치는 단말과 디스플레이를 매칭할 수 있다.In operation 350, the computing device may match the terminal and the display.

단계(360)에서 단말은 디스플레이 상에 렌더링할 좌표를 획득할 수 있다. In step 360, the terminal may obtain coordinates to be rendered on the display.

실시예에서, 앞서 추출된 특징점에 기초하여 단말로부터 전송된 제2 촬영 이미지에 포함되는 디스플레이 영역의 특징점과 캡쳐 이미지에 포함되는 특징점을 매칭함으로써 디스플레이 영역을 매칭할 수 있다.In an embodiment, the display area may be matched by matching the feature points included in the captured image with the feature points of the display area included in the second captured image transmitted from the terminal based on the previously extracted feature points.

예를 들어, 영상(351)에 의하면, 좌측 영상은 캡쳐 이미지에 해당하고, 우측 영상은 제2 촬영 이미지에서 디스플레이 영역을 인식한 영상에 해당할 수 있다. 컴퓨팅 장치는 두 영상을 매칭(ORB, object request broker)할 수 있다. 이 과정에서 카메라의 중심점을 기준으로 제2 촬영 이미지 상에 촬영된 중점을 계산하여 해당 위치에 매칭할 수 있다.For example, according to the image 351 , the left image may correspond to a captured image, and the right image may correspond to an image in which the display area is recognized from the second captured image. The computing device may match the two images (ORB, object request broker). In this process, the midpoint captured on the second captured image may be calculated based on the center point of the camera and matched to the corresponding position.

실시예에서, homograpy matching을 통해 단말에서 촬영된 제2 촬영 이미지가 디스플레이 상 위치하는 좌표 정보를 획득할 수 있다. 디스플레이 상 좌표 정보에 기초하여 단말은 3차원 콘텐츠를 렌더링하기 위한 좌표를 결정하고, 해당 좌표에 대한 정보를 획득할 수 있다.In an embodiment, coordinate information at which the second captured image captured by the terminal is located on the display may be obtained through homograpy matching. Based on the coordinate information on the display, the terminal may determine coordinates for rendering the 3D content, and obtain information on the coordinates.

이후, 디스플레이 상 3차원 콘텐츠의 렌더링을 위한 좌표가 결정되면, 단말은 디스플레이와 연결된 컴퓨팅 장치에서 실행 중인 이벤트를 Hooking하고, 해당 프로그램 상에 3차원 콘텐츠가 추가되도록 이벤트를 실행하기 위한 명령을 전송할 수 있다.Thereafter, when the coordinates for rendering the 3D content on the display are determined, the terminal hooks the event being executed in the computing device connected to the display, and transmits a command for executing the event so that the 3D content is added to the corresponding program. have.

일실시예에서, 컴퓨팅 장치는 실행 중인 프로그램에 전송된 3차원 콘텐츠를 좌표 정보에 기초하여 렌더링할 수 있다.In an embodiment, the computing device may render the 3D content transmitted to the running program based on the coordinate information.

도 4는 실시예에서, 3차원 콘텐츠 렌더링 방법에 대한 예시이다.4 is an example of a 3D content rendering method in the embodiment.

실시예에서, 단말은 제1 촬영 이미지(410)로부터 객체 대상(411)을 추출할 수 있다. 예를 들어, 단말은 제1 촬영 이미지(410)에서 복수의 객체 대상들을 추출하고, 추출된 객체 대상들 중 하나의 객체 대상(411)을 추출하도록 할 수 있으며, 또는 제1 촬영 이미지(410)의 깊이 정보에 기초하여 가장 가까이 있는 객체 대상(411)을 감지할 수 있다.In an embodiment, the terminal may extract the object object 411 from the first captured image 410 . For example, the terminal may extract a plurality of object objects from the first photographed image 410 and extract one object object 411 from among the extracted object objects, or the first photographed image 410 . It is possible to detect the closest object target 411 based on the depth information of .

실시예에서, 서버는 수신 받은 제1 촬영 이미지에 대해서 Masking을 수행하여 Masking 된 이미지(420)에서 배경(421)을 감지하고, 배경(421) 부분을 제거할 수 있다.In an embodiment, the server may perform masking on the received first captured image, detect the background 421 in the masked image 420 , and remove the background 421 portion.

서버는, 수신된 제1 촬영 이미지(410) 원본에 대해서 제거된 배경(421) 부분을 알파(Alpha=0)처리함으로써 대상 객체(431)만이 표현된 제1 촬영 이미지(430)를 획득할 수 있다. 실시예에서, 서버는 배경이 제거되어 추출된 대상 객체(431)에 대해서 깊이를 추정할 수 있다. 이를 위해서 VGGNet, CNN 모델 등이 이용될 수 있다. 서버에서, 추출된 대상 객체 및 대상 객체에 대한 정보를 단말로 전송할 수 있다.The server may obtain the first captured image 430 in which only the target object 431 is expressed by alpha (Alpha=0) processing of the background 421 part removed with respect to the received first captured image 410 original. have. In an embodiment, the server may estimate the depth with respect to the target object 431 extracted by removing the background. For this, VGGNet, CNN model, etc. can be used. The server may transmit the extracted target object and information on the target object to the terminal.

실시예에서 단말은 서버로부터 수신된 정보에 기초하여 대상 객체에 대한 3차원 콘텐츠를 생성할 수 있다.In an embodiment, the terminal may generate 3D content for the target object based on information received from the server.

단말은 제2 촬영 이미지(440)를 획득할 수 있다. 실시예에서, 생성된 3차원 콘텐츠를 렌더링할 위치(442)를 제2 촬영 이미지(440) 내 포함된 디스플레이(441) 내에 표시할 수 있다. 예를 들어, 단말에서 제2 촬영 이미지(440) 내 3차원 콘텐츠에 대한 렌더링 위치(442)를 결정한 후, 해당 위치(442)에 대한 정보를 포함하는 영상을 캡쳐할 수 있다. 제2 촬영 이미지(440)를 기준으로 렌더링 위치(442)는 카메라로 입력되는 영상의 중심으로 미리 결정될 수 있으며, 단말을 이동, 회전시키면서 렌더링 위치(442)가 디스플레이(441)의 특정 포인트에 위치하도록 조절할 수 있다. 예를 들어, 렌더링될 위치는 사용자가 제2 촬영 이미지(440)를 캡쳐하는 시점을 기준으로 결정될 수 있고, 캡쳐하는 시점을 기준으로 3차원 콘텐츠의 위치뿐만 아니라 크기도 결정될 수 있다.The terminal may acquire the second captured image 440 . In an embodiment, a location 442 to render the generated 3D content may be displayed in the display 441 included in the second captured image 440 . For example, after the terminal determines the rendering position 442 of the 3D content in the second captured image 440 , an image including information on the corresponding position 442 may be captured. The rendering position 442 based on the second captured image 440 may be predetermined as the center of the image input to the camera, and the rendering position 442 is located at a specific point of the display 441 while moving and rotating the terminal. can be adjusted to For example, the location to be rendered may be determined based on a point in time at which the user captures the second captured image 440 , and a size as well as a location of the 3D content may be determined based on the point of capture.

단말은 제2 촬영 이미지(450)의 중심에 해당하는 렌더링 위치로 3차원 콘텐츠(451)를 생성할 수 있다.The terminal may generate the 3D content 451 as a rendering position corresponding to the center of the second captured image 450 .

실시예에서, 단말은 렌더링 위치(442)로 3차원 콘텐츠가 렌더링되도록 3차원 콘텐츠를 3차원 콘텐츠가 렌더링될 디스플레이와 연결된 컴퓨팅 장치로 전송할 수 있다. 3차원 콘텐츠의 전송을 위해 단말과 컴퓨팅 장치는 근거리 통신으로 연결될 수 있다. 컴퓨팅 장치는, 실행 중인 프로그램에 기초하여 3차원 콘텐츠(451)를 디스플레이 상에 렌더링할 수 있다.In an embodiment, the terminal may transmit the 3D content to the rendering location 442 so that the 3D content is rendered to a computing device connected to a display on which the 3D content is to be rendered. For transmission of 3D content, the terminal and the computing device may be connected through short-range communication. The computing device may render the 3D content 451 on the display based on the program being executed.

도 5는 실시예에서, 단말의 구성에 대해 설명하기 위한 블록도이다.5 is a block diagram for explaining the configuration of a terminal in the embodiment.

실시예에서, 단말(500)은 하나 이상의 메모리(510), 하나 이상의 프로세서(520)를 포함하고, 서버(501) 및 컴퓨팅 장치(502)와 통신하기 위한 통신부(530)를 포함할 수 있다.In an embodiment, the terminal 500 may include one or more memories 510 , one or more processors 520 , and a communication unit 530 for communicating with the server 501 and the computing device 502 .

실시예에 따른 방법에 의하면, 단말(500), 서버(501) 및 컴퓨팅 장치(502) 간의 통신에 기초한 연동성을 이용하여 3차원 콘텐츠를 생성하고, 3차원 콘텐츠를 컴퓨팅 장치(502)로 렌더링하는 방법을 제공할 수 있다.According to the method according to the embodiment, the 3D content is generated using the interworking based on communication between the terminal 500, the server 501, and the computing device 502, and the 3D content is rendered to the computing device 502. method can be provided.

단말(500)의 앱(웹앱)과 서버(501)는 https 통신에 의해 데이터를 송/수신하며, 컴퓨팅 장치(502)는 플랫폼에 영향을 받지 않는다.The app (web app) of the terminal 500 and the server 501 transmit/receive data by https communication, and the computing device 502 is not affected by the platform.

단말(500)은 제1 촬영 이미지를 획득한다. 실시예에서, 제1 촬영 이미지는 단말의 카메라를 통해 촬영되는 이미지로, 단말(500)은 3차원 콘텐츠로 제작하고자 하는 대상 객체를 포함시켜 촬영함으로써 제1 촬영 이미지를 획득할 수 있다.The terminal 500 acquires a first photographed image. In an embodiment, the first photographed image is an image photographed through the camera of the terminal, and the terminal 500 may acquire the first photographed image by including a target object to be produced as 3D content.

단말(500)은 제1 촬영 이미지를 서버로 전송한다.The terminal 500 transmits the first captured image to the server.

서버(501)에서, 수신된 제1 촬영 이미지에서 배경을 제거하고 객체 깊이를 추정될 수 있다.In the server 501 , the background may be removed from the received first captured image and the object depth may be estimated.

실시예에서, 제1 촬영 이미지에서 대상 객체를 인식하고, 제1 촬영 이미지에서 대상 객체를 제외한 모든 부분을 배경으로 인식할 수 있다. 서버(501)에서, 제1 촬영 이미지에서 배경으로 인식되는 모든 영역을 제거함으로써 대상 객체를 추출할 수 있다. BASNet 등의 딥러닝 모델이 이용될 수 있다. BASNet은 영상 인식 서버로 Python 언어로 이루어져있으며, NVIdia GPU 장착 시 CUDA lib 를 연동하여 빠른 계산이 가능하고, GPU 가 없을 시에는 CPU 로 동작한다.In an embodiment, a target object may be recognized in the first captured image, and all parts of the first captured image except for the target object may be recognized as a background. The server 501 may extract the target object by removing all regions recognized as the background from the first captured image. A deep learning model such as BASNet may be used. BASNet is an image recognition server and consists of Python language. When NVIdia GPU is installed, fast calculation is possible by linking CUDA lib, and when there is no GPU, it operates as a CPU.

서버(501)에서 배경이 제거되어 추출된 대상 객체에 대해서 깊이가 추정될 수 있다. 이를 위해서 VGGNet, CNN 모델 등이 이용될 수 있다.A depth may be estimated for the extracted target object by removing the background from the server 501 . For this, VGGNet, CNN model, etc. can be used.

단말(500)은, 추출된 대상 객체 및 대상 객체에 대한 정보를 서버(501)로부터 수신할 수 있다. 실시예에서, 배경이 제거된 객체의 영상이 전송될 수 있다. 객체에 대한 정보는 객체의 깊이 정보 등 대상 객체를 3차원으로 구현하는 데에 필요한 정보(예컨대 마스킹 데이터)를 포함할 수 있다.The terminal 500 may receive the extracted target object and information on the target object from the server 501 . In an embodiment, an image of an object from which a background is removed may be transmitted. The information about the object may include information (eg, masking data) necessary to implement the target object in three dimensions, such as depth information of the object.

단말(500)은 객체 영상을 이용하여 3차원 콘텐츠를 생성한다. 실시예에서, 단말은 3차원 콘텐츠를 생성하기 위한 앱을 실행할 수 있다. 단말은 수신된 대상 객체에 대해 3차원 골격을 생성하고, 텍스쳐(texture)를 입힘으로써 3차원 콘텐츠를 생성할 수 있다.The terminal 500 generates 3D content using the object image. In an embodiment, the terminal may execute an app for generating 3D content. The terminal may create a 3D skeleton for the received target object, and may generate 3D content by applying a texture.

실시예에서, 단말(500)은 사용자의 제어에 의해 렌더링될 3차원 콘텐츠의 시점을 변환할 수 있다. 예를 들어, 사용자는 생성된 3차원 콘텐츠를 회전시키거나, 시점을 변경하는 등 3차원 콘텐츠가 단말의 디스플레이로 노출되는 시점에 대해 단말의 디스플레이를 터치함으로써 변경, 제어할 수 있다.In an embodiment, the terminal 500 may convert the viewpoint of the 3D content to be rendered under the control of the user. For example, the user may change or control the viewpoint at which the 3D content is exposed on the display of the terminal, such as rotating the generated 3D content or changing the viewpoint, by touching the display of the terminal.

단말(500)은, 제2 촬영 이미지를 획득한다. 실시예에서, 제2 촬영 이미지는 생성된 3차원 콘텐츠를 붙여 넣을 대상 및 위치를 결정하는 데에 이용할 수 있다.The terminal 500 acquires a second captured image. In an embodiment, the second captured image may be used to determine an object and a location to paste the generated 3D content.

제2 촬영 이미지는 단말에 구비된 카메라를 통해 입력되는 영상에 해당할 수 있고, 해당 영상은 생성된 3차원 콘텐츠를 붙여 넣기 위한 디스플레이를 포함할 수 있다. 예를 들어, 제2 촬영 이미지는 PC의 모니터, 노트북의 모니터 등의 디스플레이 화면을 포함할 수 있다.The second captured image may correspond to an image input through a camera provided in the terminal, and the image may include a display for pasting the generated 3D content. For example, the second captured image may include a display screen such as a monitor of a PC or a monitor of a laptop computer.

단말(500)은 3차원 콘텐츠를 렌더링할 위치를 결정한다. 실시예에서, 3차원 콘텐츠가 렌더링될 위치는 제2 촬영 이미지에 포함되는 디스플레이 내에서 선택될 수 있다. 디스플레이에는 작업 중인 창이 포함될 수 있다. 단말은, 제2 촬영 이미지에서 디스플레이 영역을 인식할 수 있고, 해당 영역 내에서 렌더링될 위치가 선택될 수 있도록 디스플레이 영역 이외의 영역에 대해서 비활성화할 수 있다. 제2 촬영 이미지에서 디스플레이를 인식하는 방법에 대해서는 이후 자세히 설명하도록 한다.The terminal 500 determines a position to render the 3D content. In an embodiment, a position at which the 3D content is to be rendered may be selected in a display included in the second captured image. The display may contain the window being worked on. The terminal may recognize the display area from the second captured image, and may deactivate the area other than the display area so that a position to be rendered within the corresponding area can be selected. A method of recognizing the display from the second captured image will be described later in detail.

실시예에서는, 단말(500)은 카메라를 통해 단말의 디스플레이로 노출되는 영상에서 디스플레이 영역을 검출하여 표시하고, 해당 영역에서 3차원 콘텐츠가 렌더링될 위치가 결정되도록 할 수 있다. 단말의 디스플레이로 노출되는 영상 내에서 렌더링될 위치는 중심점으로 고정될 수 있으며, 카메라를 이동시켜 디스플레이 내 렌더링될 위치가 결정되도록 할 수 있다.In an embodiment, the terminal 500 may detect and display a display area from an image exposed to the display of the terminal through a camera, and determine a position where 3D content is to be rendered in the corresponding area. The position to be rendered in the image exposed on the display of the terminal may be fixed as a central point, and the position to be rendered in the display may be determined by moving the camera.

단말(500)은 제2 촬영 이미지와 3차원 콘텐츠를 해당 디스플레이와 연결된 컴퓨팅 장치(502)로 전송할 수 있다. 혹은 컴퓨팅 장치(502)가 디스플레이를 포함할 수 있다. 실시예에서, 제2 촬영 이미지는 제2 촬영 이미지 내 3차원 콘텐츠가 렌더링될 위치에 대한 정보를 포함할 수 있다.The terminal 500 may transmit the second captured image and the 3D content to the computing device 502 connected to the display. Alternatively, the computing device 502 may include a display. In an embodiment, the second captured image may include information on a location where 3D content is to be rendered in the second captured image.

컴퓨팅 장치(502)에서 수신된 정보에 기초하여 3차원 콘텐츠가 렌더링될 수 있다. 실시예에서, 단말(500)에서 결정된 렌더링 위치에 기초하여 3차원 콘텐츠가 해당 위치로 렌더링될 수 있다.3D content may be rendered based on the information received by the computing device 502 . In an embodiment, based on the rendering position determined by the terminal 500, 3D content may be rendered to the corresponding position.

컴퓨팅 장치(502)는 적어도 하나의 프로그램을 실행 중이며, 해당 프로그램의 실행은 컴퓨팅 장치(502)와 연결된 디스플레이를 통해 작업 여부에 대한 확인이 가능하다.The computing device 502 is executing at least one program, and it is possible to check whether the program is being executed through a display connected to the computing device 502 .

실시예에서, 컴퓨팅 장치(502)에서 단말로부터 수신된 3차원 콘텐츠가 실행 중인 프로그램의 디스플레이의 작업 공간 상에 렌더링될 수 있다. 컴퓨팅 장치(502)에서 실행 중인 프로그램에 따라서 3차원 콘텐츠가 그대로 렌더링되거나 2차원으로 변환하여 렌더링될 수 있다.In an embodiment, the 3D content received from the terminal in the computing device 502 may be rendered on the workspace of the display of the running program. Depending on the program being executed in the computing device 502 , 3D content may be rendered as it is or converted into 2D and rendered.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (19)

3차원 콘텐츠를 렌더링하기 위한 단말의 동작 방법에 있어서,
대상 객체를 포함하는 제1 촬영 이미지를 서버로 전송하는 단계;
상기 제1 촬영 이미지로부터 상기 대상 객체가 추출된 객체 영상을 획득하는 단계;
상기 객체 영상을 이용하여 3차원 콘텐츠를 생성하는 단계;
디스플레이를 포함하는 제2 촬영 이미지를 획득하는 단계;
상기 제2 촬영 이미지에 기초하여 상기 디스플레이 내 상기 3차원 콘텐츠가 렌더링될 위치를 결정하는 단계; 및
상기 디스플레이를 제어하는 컴퓨팅 장치로 상기 위치를 포함하는 상기 제2 촬영 이미지 및 상기 3차원 콘텐츠를 전송하는 단계
를 포함하고,
상기 3차원 콘텐츠는 상기 컴퓨팅 장치에 의하여 상기 디스플레이의 상기 위치에 표시되도록 렌더링되는,
단말의 동작 방법.
In the operating method of a terminal for rendering three-dimensional content,
transmitting a first captured image including a target object to a server;
obtaining an object image from which the target object is extracted from the first captured image;
generating 3D content using the object image;
acquiring a second captured image including a display;
determining a position where the 3D content is to be rendered in the display based on the second captured image; and
Transmitting the second captured image and the 3D content including the location to a computing device controlling the display
including,
wherein the three-dimensional content is rendered by the computing device to be displayed at the location of the display;
How the terminal operates.
제1항에 있어서,
상기 디스플레이를 포함하는 제2 촬영 이미지를 획득하는 단계는,
상기 제2 촬영 이미지로부터 상기 디스플레이의 외곽선을 추출하는 단계; 및
상기 디스플레이에 해당하는 영역을 인식하는 단계
를 포함하는,
단말의 동작 방법.
According to claim 1,
The step of acquiring a second photographed image including the display comprises:
extracting an outline of the display from the second captured image; and
Recognizing an area corresponding to the display
containing,
How the terminal operates.
제1항에 있어서,
상기 제2 촬영 이미지에 기초하여 상기 디스플레이 내 상기 3차원 콘텐츠가 렌더링될 위치를 결정하는 단계는,
상기 디스플레이 내 특징점을 추출하는 단계; 및
상기 디스플레이를 상기 단말 내 화면에 매칭하는 단계
를 포함하는,
단말의 동작 방법.
According to claim 1,
Determining a position where the 3D content is to be rendered in the display based on the second captured image includes:
extracting feature points in the display; and
Matching the display to the screen in the terminal
containing,
How the terminal operates.
제1항에 있어서,
상기 제2 촬영 이미지로부터 상기 모니터 내 상기 3차원 콘텐츠가 렌더링될 위치를 결정하는 단계는,
상기 디스플레이의 좌표 정보를 획득하는 단계
상기 디스플레이의 좌표 내 상기 3차원 콘텐츠가 렌더링될 좌표를 결정하는 단계
를 포함하는,
단말의 동작 방법.
According to claim 1,
The step of determining a position where the 3D content is to be rendered in the monitor from the second captured image,
obtaining coordinate information of the display;
determining the coordinates at which the three-dimensional content is to be rendered within the coordinates of the display;
containing,
How the terminal operates.
제4항에 있어서,
상기 컴퓨팅 장치에서 실행 중인 프로그램에 기초하여 상기 3차원 콘텐츠가 렌더링되는,
단말의 동작 방법.
5. The method of claim 4,
The three-dimensional content is rendered based on the program running on the computing device,
How the terminal operates.
제5항에 있어서,
상기 프로그램이 3차원 프로그램인 경우, 상기 3차원 콘텐츠가 상기 3차원 프로그램에 렌더링되는,
단말의 동작 방법.
6. The method of claim 5,
When the program is a three-dimensional program, the three-dimensional content is rendered in the three-dimensional program,
How the terminal operates.
제5항에 있어서,
상기 프로그램이 3차원 프로그램이 아닌 경우, 상기 3차원 콘텐츠가 이미지화되어 상기 프로그램에 렌더링되는,
단말의 동작 방법.
6. The method of claim 5,
If the program is not a three-dimensional program, the three-dimensional content is imaged and rendered in the program,
How the terminal operates.
제1항에 있어서,
상기 객체 영상을 이용하여 3차원 콘텐츠를 생성하는 단계는,
사용자로부터 입력되는 제어 명령에 기초하여 상기 3차원 콘텐츠의 시점을 을 변환하는 단계
를 포함하는,
단말의 동작 방법.
According to claim 1,
The step of generating 3D content using the object image includes:
Transforming the viewpoint of the 3D content based on a control command input from the user
containing,
How the terminal operates.
제1항에 있어서,
상기 객체 영상을 이용하여 3차원 콘텐츠를 생성하는 단계는,
상기 서버로부터 획득한 상기 객체 영상의 깊이 정보를 이용하여 상기 3차원 콘텐츠를 생성하는 단계
를 포함하는,
단말의 동작 방법.
According to claim 1,
The step of generating 3D content using the object image includes:
Generating the 3D content by using the depth information of the object image obtained from the server
containing,
How the terminal operates.
하드웨어와 결합되어 제1항 내지 제9항 중 어느 하나의 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능 매체에 저장된 컴퓨터 프로그램.
A computer program stored on a computer-readable medium in combination with hardware to execute the method of any one of claims 1 to 9.
3차원 콘텐츠를 렌더링하기 위한 단말에 있어서,
하나 이상의 프로세서;
메모리; 및
상기 메모리에 저장되어 있으며 상기 하나 이상의 프로세서에 의하여 실행되도록 구성되는 하나 이상의 프로그램을 포함하고,
상기 프로그램은,
대상 객체를 포함하는 제1 촬영 이미지를 서버로 전송하는 단계;
상기 제1 촬영 이미지로부터 상기 대상 객체가 추출된 객체 영상을 획득하는 단계;
상기 객체 영상을 이용하여 3차원 콘텐츠를 생성하는 단계;
디스플레이를 포함하는 제2 촬영 이미지를 획득하는 단계;
상기 제2 촬영 이미지에 기초하여 상기 디스플레이 내 상기 3차원 콘텐츠가 렌더링될 위치를 결정하는 단계; 및
상기 디스플레이를 제어하는 컴퓨팅 장치로 상기 위치를 포함하는 상기 제2 촬영 이미지 및 상기 3차원 콘텐츠를 전송하는 단계
를 포함하고,
상기 3차원 콘텐츠는 상기 컴퓨팅 장치에 의하여 상기 디스플레이의 상기 위치에 표시되도록 렌더링되는,
단말.
In the terminal for rendering 3D content,
one or more processors;
Memory; and
one or more programs stored in the memory and configured to be executed by the one or more processors;
The program is
transmitting a first captured image including a target object to a server;
obtaining an object image from which the target object is extracted from the first captured image;
generating 3D content using the object image;
acquiring a second captured image including a display;
determining a position where the 3D content is to be rendered in the display based on the second captured image; and
Transmitting the second captured image and the 3D content including the location to a computing device controlling the display
including,
wherein the three-dimensional content is rendered by the computing device to be displayed at the location of the display;
terminal.
제11항에 있어서,
상기 디스플레이를 포함하는 제2 촬영 이미지를 획득하는 단계는,
상기 제2 촬영 이미지로부터 상기 디스플레이의 외곽선을 추출하는 단계; 및
상기 디스플레이에 해당하는 영역을 인식하는 단계
를 포함하는,
단말.
12. The method of claim 11,
The step of acquiring a second photographed image including the display comprises:
extracting an outline of the display from the second captured image; and
Recognizing an area corresponding to the display
containing,
terminal.
제11항에 있어서,
상기 제2 촬영 이미지에 기초하여 상기 디스플레이 내 상기 3차원 콘텐츠가 렌더링될 위치를 결정하는 단계는,
상기 디스플레이 내 특징점을 추출하는 단계; 및
상기 디스플레이를 상기 단말 내 화면에 매칭하는 단계
를 포함하는,
단말.
12. The method of claim 11,
Determining a position where the 3D content is to be rendered in the display based on the second captured image includes:
extracting feature points in the display; and
Matching the display to the screen in the terminal
containing,
terminal.
제11항에 있어서,
상기 제2 촬영 이미지로부터 상기 모니터 내 상기 3차원 콘텐츠가 렌더링될 위치를 결정하는 단계는,
상기 디스플레이의 좌표 정보를 획득하는 단계
상기 디스플레이의 좌표 내 상기 3차원 콘텐츠가 렌더링될 좌표를 결정하는 단계
를 포함하는,
단말.
12. The method of claim 11,
The step of determining a position where the 3D content is to be rendered in the monitor from the second captured image,
obtaining coordinate information of the display;
determining the coordinates at which the three-dimensional content is to be rendered within the coordinates of the display;
containing,
terminal.
제14항에 있어서,
상기 컴퓨팅 장치에서 실행 중인 프로그램에 기초하여 상기 3차원 콘텐츠가 렌더링되는,
단말.
15. The method of claim 14,
The three-dimensional content is rendered based on the program running on the computing device,
terminal.
제15항에 있어서,
상기 프로그램이 3차원 프로그램인 경우, 상기 3차원 콘텐츠가 상기 3차원 프로그램에 렌더링되는,
단말.
16. The method of claim 15,
When the program is a three-dimensional program, the three-dimensional content is rendered in the three-dimensional program,
terminal.
제15항에 있어서,
상기 프로그램이 3차원 프로그램이 아닌 경우, 상기 3차원 콘텐츠가 이미지화되어 상기 프로그램에 렌더링되는,
단말.
16. The method of claim 15,
If the program is not a three-dimensional program, the three-dimensional content is imaged and rendered in the program,
terminal.
제11항에 있어서,
상기 객체 영상을 이용하여 3차원 콘텐츠를 생성하는 단계는,
사용자로부터 입력되는 제어 명령에 기초하여 상기 3차원 콘텐츠의 시점을 을 변환하는 단계
를 포함하는,
단말.
12. The method of claim 11,
The step of generating 3D content using the object image includes:
Transforming the viewpoint of the 3D content based on a control command input from the user
containing,
terminal.
제11항에 있어서,
상기 객체 영상을 이용하여 3차원 콘텐츠를 생성하는 단계는,
상기 서버로부터 획득한 상기 객체 영상의 깊이 정보를 이용하여 상기 3차원 콘텐츠를 생성하는 단계
를 포함하는,
단말.
12. The method of claim 11,
The step of generating 3D content using the object image includes:
Generating the 3D content by using the depth information of the object image obtained from the server
containing,
terminal.
KR1020200171991A 2020-12-10 2020-12-10 Terminal for rendering 3d content and operaing method of thereof KR102570286B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200171991A KR102570286B1 (en) 2020-12-10 2020-12-10 Terminal for rendering 3d content and operaing method of thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200171991A KR102570286B1 (en) 2020-12-10 2020-12-10 Terminal for rendering 3d content and operaing method of thereof

Publications (2)

Publication Number Publication Date
KR20220082260A true KR20220082260A (en) 2022-06-17
KR102570286B1 KR102570286B1 (en) 2023-08-23

Family

ID=82269020

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200171991A KR102570286B1 (en) 2020-12-10 2020-12-10 Terminal for rendering 3d content and operaing method of thereof

Country Status (1)

Country Link
KR (1) KR102570286B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102566879B1 (en) * 2023-01-03 2023-08-11 (주)언커버3디모델링 3-Dimension Modeling Distribution Method and Computer Program
KR102576986B1 (en) * 2022-10-20 2023-09-11 이어진 Building VR content provision system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110027272A (en) * 2009-09-10 2011-03-16 (주)트라이디커뮤니케이션 System for providing 3d avata service using background image and method therefor
KR20140057916A (en) * 2012-11-05 2014-05-14 삼성전자주식회사 Image processing apparatus and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110027272A (en) * 2009-09-10 2011-03-16 (주)트라이디커뮤니케이션 System for providing 3d avata service using background image and method therefor
KR20140057916A (en) * 2012-11-05 2014-05-14 삼성전자주식회사 Image processing apparatus and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102576986B1 (en) * 2022-10-20 2023-09-11 이어진 Building VR content provision system
KR102566879B1 (en) * 2023-01-03 2023-08-11 (주)언커버3디모델링 3-Dimension Modeling Distribution Method and Computer Program

Also Published As

Publication number Publication date
KR102570286B1 (en) 2023-08-23

Similar Documents

Publication Publication Date Title
US20220075453A1 (en) Ar scenario-based gesture interaction method, storage medium, and communication terminal
KR101135186B1 (en) System and method for interactive and real-time augmented reality, and the recording media storing the program performing the said method
KR101808840B1 (en) Depth information extracting method based on machine learning and apparatus thereof
US8660362B2 (en) Combined depth filtering and super resolution
KR102476016B1 (en) Apparatus and method for determining position of eyes
CN110866977B (en) Augmented reality processing method, device, system, storage medium and electronic equipment
EP2531979B1 (en) Depth camera compatibility
JP6237804B2 (en) Abnormal situation detection method and apparatus
JP2020507850A (en) Method, apparatus, equipment, and storage medium for determining the shape of an object in an image
US10950056B2 (en) Apparatus and method for generating point cloud data
JP2014110043A (en) Device, method and program for connecting a plurality of three-dimensional models
KR102570286B1 (en) Terminal for rendering 3d content and operaing method of thereof
EP4086853A2 (en) Method and apparatus for generating object model, electronic device and storage medium
KR102333768B1 (en) Hand recognition augmented reality-intraction apparatus and method
CN116168383A (en) Three-dimensional target detection method, device, system and storage medium
KR20220088289A (en) Apparatus and method for estimating object pose
JP2022014921A (en) Three-dimensional sensing information acquisition method and road side apparatus based on external parameter of road side camera
JP2017033556A (en) Image processing method and electronic apparatus
JP6815743B2 (en) Image processing equipment and its methods, programs
CN113327320A (en) Three-dimensional model reconstruction method, device, equipment and computer readable storage medium
KR20160073491A (en) Interactive progress monitoring system using mobile terminal and user interface of the mobile terminal
CN115222895B (en) Image generation method, device, equipment and storage medium
CN111192350A (en) Motion capture system and method based on 5G communication VR helmet
KR102310958B1 (en) Wide viewing angle stereo camera apparatus and depth image processing method using the same
KR102472115B1 (en) Apparatus and method for providing augmented reality-based video conference for multi-party online business collaboration

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant