[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20240149763A - System for providing service for generating 3d character sample for one source multi use - Google Patents

System for providing service for generating 3d character sample for one source multi use Download PDF

Info

Publication number
KR20240149763A
KR20240149763A KR1020230078102A KR20230078102A KR20240149763A KR 20240149763 A KR20240149763 A KR 20240149763A KR 1020230078102 A KR1020230078102 A KR 1020230078102A KR 20230078102 A KR20230078102 A KR 20230078102A KR 20240149763 A KR20240149763 A KR 20240149763A
Authority
KR
South Korea
Prior art keywords
character
image data
unit
simulation
model
Prior art date
Application number
KR1020230078102A
Other languages
Korean (ko)
Inventor
주민영
Original Assignee
주민영
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주민영 filed Critical 주민영
Publication of KR20240149763A publication Critical patent/KR20240149763A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Tourism & Hospitality (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Hardware Design (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Economics (AREA)
  • Multimedia (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 OSMU(One Source Multi Use)를 위한 3차원 캐릭터 샘플 생성 서비스 제공 시스템에 관한 것으로, 해결하고자 하는 과제는 메타버스 플랫폼의 캐릭터 디자인 프로그램을 활용해 2차원 캐릭터를 3차원 캐릭터로 한번에 생성하여 3차원 캐릭터 샘플 및 3차원 캐릭터 샘플의 사전 시뮬레이션을 제공함으로써, 종래에 3차원 캐릭터 모델링에 소요되는 불필요한 시간과 비용을 절감하고, OSMU(One Source Multi Use)와 연계되는 캐릭터 사업에 대한 사후 진행 여부를 신속히 판단할 수 있도록 할 뿐만 아니라, 캐릭터 연계 사업에 대한 투자, 제작협의 등에 대한 효율성을 극대화시키는데 있다.
일례로, 인물객체를 포함하는 2차원 이미지데이터를 획득하는 2차원 이미지데이터 획득부; 메타버스 플랫폼의 캐릭터 디자인 프로그램을 통해 상기 2차원 이미지데이터에 포함된 인물객체에 대한 3차원 모델링 작업을 수행하여 3차원 캐릭터 모델을 생성하고, 생성된 3차원 캐릭터 모델에 동작을 설정하여 동작 시연이 가능한 3차원 캐릭터데이터를 생성하는 3차원 캐릭터데이터 생성부; 및 상기 3차원 캐릭터데이터에 대한 시뮬레이션을 수행하는 3차원 캐릭터 시뮬레이션 수행부를 포함하는 차원 캐릭터 샘플 생성 서비스 제공 시스템을 개시한다.
The present invention relates to a system for providing a 3D character sample generation service for OSMU (One Source Multi Use). The problem to be solved is to use a character design program of a metaverse platform to generate a 2D character into a 3D character at once and to provide a 3D character sample and a preliminary simulation of the 3D character sample, thereby reducing unnecessary time and cost required for 3D character modeling in the past, and to enable a quick judgment on whether to proceed with a character business linked to OSMU (One Source Multi Use) after the fact, and to maximize the efficiency of investment in, production consultation on, and the like for character-linked businesses.
For example, the present invention discloses a 3D character sample generation service providing system, which includes a 2D image data acquisition unit that acquires 2D image data including a character object; a 3D character data generation unit that performs 3D modeling work on the character object included in the 2D image data through a character design program of a metaverse platform to create a 3D character model, and sets motions to the created 3D character model to create 3D character data capable of demonstrating motions; and a 3D character simulation performance unit that performs a simulation on the 3D character data.

Description

OSMU를 위한 3차원 캐릭터 샘플 생성 서비스 제공 시스템{SYSTEM FOR PROVIDING SERVICE FOR GENERATING 3D CHARACTER SAMPLE FOR ONE SOURCE MULTI USE} {SYSTEM FOR PROVIDING SERVICE FOR GENERATING 3D CHARACTER SAMPLE FOR ONE SOURCE MULTI USE}

본 발명의 실시예는 OSMU(One Source Multi Use)를 위한 3차원 캐릭터 샘플 생성 서비스 제공 시스템에 관한 것이다.An embodiment of the present invention relates to a system for providing a three-dimensional character sample generation service for OSMU (One Source Multi Use).

일반적으로, 3차원 캐릭터를 제작하는 경우 2차원으로 디자인된 캐릭터이미지를 바탕으로 입체적으로 그래픽 요소를 부가하는 3D 모델링 작업을 거쳐야 한다.Typically, when creating a 3D character, you need to go through 3D modeling work, which involves adding three-dimensional graphic elements based on a 2D designed character image.

이에 대한 작업 과정을 좀 더 구체적으로 설명하면 통상적으로 두 가지 방식의 워크 플로우가 있다. To elaborate on the workflow for this, there are typically two types of workflows.

첫 번째 방법은, 작업자의 아날로그 스케치를 통한 2차원 캐릭터 이미지를 만든 후, 디지털 프로그램을 통해 2차원 캐릭터 디자인을 생성하고, 이렇게 생성된 2차원 캐릭터에 대한 3차원 디지털 데이터화 작업을 통하여 3차원 캐릭터 모델을 완성할 수 있는 방법이 있다.The first method is to create a two-dimensional character image through an analog sketch of the worker, then create a two-dimensional character design through a digital program, and then complete a three-dimensional character model by converting the two-dimensional character created in this way into three-dimensional digital data.

두 번째 방법은, 2차원 디지털 프로그램을 통해 캐릭터를 직접 디자인한 후 3차원 디지털 변환 과정을 통해 3차원 캐릭터 모델을 생성하는 방법이다. The second method is to design the character directly using a 2D digital program and then create a 3D character model through a 3D digital conversion process.

그러나, 3차원 캐릭터를 생성하기 위한 종래의 방식은, 2차원 캐릭터 디자인이 3차원화되는 과정에서 2차원 캐릭터가 갖는 특징과는 본질적으로 다르게 입체감(입체형태)이라는 특징이 부가되어 새로운 창작물(ex. 3D 아바타)로 생성되는데, 이러한 과정이 이루어지기 위해서는 2~3개월의 시간이 소요되며 그에 따른 비용(ex. 전문인 인건비 등)이 상당히 발생된다는 단점이 있다.However, the conventional method for creating 3D characters has the disadvantage that, in the process of 3Dizing a 2D character design, a new creation (ex. 3D avatar) is created with a three-dimensional effect (three-dimensional shape) that is essentially different from the characteristics of a 2D character. This process takes 2 to 3 months and incurs considerable costs (ex. professional labor costs, etc.).

특히, 이러한 시간적, 비용적 단점에도 불구하고, 완성된 3차원 캐릭터의 구현 모습은 해당 제작 작업이 완료되기 이전에는 확인할 수 없다는 위험 부담이 존재한다.In particular, despite these time and cost disadvantages, there is a risk that the appearance of the completed 3D character cannot be confirmed until the production work is completed.

OSMU(One Source Multi Use)와 연계되는 캐릭터 사업을 진행함에 있어서 상기와 같은 제작 시간과 비용은 비효율적인 요소로서 작용할 수 밖에 없는데, 특히 캐릭터 제작 과정에서 사업을 사후에 진행하지 않을 경우 시간과 비용이 낭비되는 일이 발생될 수 있다.When conducting a character business linked to OSMU (One Source Multi Use), the above production time and cost cannot help but act as inefficient factors. In particular, if the business is not conducted after the character production process, time and cost may be wasted.

공개특허공보 제10-2023-0060432호(공개일자: 2023년05월04일)Publication date of patent publication No. 10-2023-0060432 (publication date: May 4, 2023) 등록특허공보 제10-2498056호(등록일자: 2023년02월06일)Patent Registration No. 10-2498056 (Registration Date: February 6, 2023) 등록특허공보 제10-1165017호(등록일자: 2012년07월05일)Patent Registration No. 10-1165017 (Registration Date: July 5, 2012)

본 발명의 실시예는, 메타버스 플랫폼의 캐릭터 디자인 프로그램을 활용해 2차원 캐릭터를 3차원 캐릭터로 한번에 생성하여 3차원 캐릭터 샘플 및 3차원 캐릭터 샘플의 사전 시뮬레이션을 제공함으로써, 종래에 3차원 캐릭터 모델링에 소요되는 불필요한 시간과 비용을 절감하고, OSMU(One Source Multi Use)와 연계되는 캐릭터 사업에 대한 사후 진행 여부를 신속히 판단할 수 있도록 할 뿐만 아니라, 캐릭터 연계 사업에 대한 투자, 제작협의 등에 대한 효율성을 극대화시킬 수 있는 OSMU를 위한 3차원 캐릭터 샘플 생성 서비스 제공 시스템을 제공한다.An embodiment of the present invention provides a 3D character sample creation service system for OSMU that can maximize the efficiency of investment in, production consultation on, and other aspects of character-linked businesses by reducing unnecessary time and cost required for 3D character modeling in the past by utilizing a character design program of a metaverse platform to create a 2D character as a 3D character at once and providing a 3D character sample and a preliminary simulation of the 3D character sample, and enabling a quick judgment on whether to proceed with a character business linked to OSMU (One Source Multi Use).

본 발명의 실시예에 따른 OSMU(One Source Multi Use)를 위한 3차원 캐릭터 샘플 생성 서비스 제공 시스템은, 인물객체를 포함하는 2차원 이미지데이터를 획득하는 2차원 이미지데이터 획득부; 메타버스 플랫폼의 캐릭터 디자인 프로그램을 통해 상기 2차원 이미지데이터에 포함된 인물객체에 대한 3차원 모델링 작업을 수행하여 3차원 캐릭터 모델을 생성하고, 생성된 3차원 캐릭터 모델에 동작을 설정하여 동작 시연이 가능한 3차원 캐릭터데이터를 생성하는 3차원 캐릭터데이터 생성부; 및 상기 3차원 캐릭터데이터에 대한 시뮬레이션을 수행하는 3차원 캐릭터 시뮬레이션 수행부를 포함한다.A system for providing a 3D character sample generation service for OSMU (One Source Multi Use) according to an embodiment of the present invention includes: a 2D image data acquisition unit for acquiring 2D image data including a character object; a 3D character data generation unit for performing 3D modeling work on the character object included in the 2D image data through a character design program of a metaverse platform to generate a 3D character model, and setting motions for the generated 3D character model to generate 3D character data capable of demonstrating motions; and a 3D character simulation performance unit for performing a simulation on the 3D character data.

또한, 상기 2차원 이미지데이터 획득부는, 인물객체가 실제인물인 경우 카메라를 통해 촬영된 영상데이터를 상기 2차원 이미지데이터로서 획득하는 촬영영상데이터 획득부; 및 인물객체가 가상인물인 경우 가상인물에 대하여 디자인된 2차원 캐릭터이미지를 갖는 그래픽이미지데이터를 제공 받아 상기 2차원 이미지데이터로서 획득하는 그래픽이미지데이터 획득부를 포함할 수 있다.In addition, the two-dimensional image data acquisition unit may include a shooting image data acquisition unit that acquires image data captured by a camera as the two-dimensional image data when the person object is a real person; and a graphic image data acquisition unit that receives graphic image data having a two-dimensional character image designed for a virtual person and acquires the graphic image data as the two-dimensional image data when the person object is a virtual person.

또한, 상기 3차원 캐릭터데이터 생성부는, 상기 2차원 이미지데이터에 포함된 인물객체의 얼굴부분만 추출하는 이미지 전처리를 수행하는 이미지 전처리부; 이미지 전처리가 수행된 인물객체의 얼굴부분에 대한 특징점을 검출하는 특징점 검출부; 상기 특징점 추출부에서 추출된 특징점에 기반하여 3차원 모델링 작업 및 리터칭 작업을 수행하여 3차원 캐릭터 얼굴을 생성하는 3차원 캐릭터 얼굴 생성부; 3차원 캐릭터에 적용될 3차원 바디 타입을 설정하는 3차원 캐릭터 바디 설정부; 상기 3차원 캐릭터 얼굴 및 상기 3차원 바디를 결합한 3차원 캐릭터 모델에 의상 타입을 설정하는 3차원 캐릭터 의상 설정부; 의상이 설정된 3차원 캐릭터 모델에 대한 카메라 샷을 설정하는 3차원 캐릭터 카메라 샷 설정부; 및 미리 마련된 다수의 동작 컨셉트 중 적어도 하나의 동작 컨셉트를 선택하고, 선택된 동작 컨셉트에 따른 모션데이터를 카메라 샷이 설정된 3차원 캐릭터 모델에 적용하여 동작 시연이 가능한 상기 3차원 캐릭터데이터를 완성하는 3차원 캐릭터 동작 설정부를 포함할 수 있다.In addition, the three-dimensional character data generation unit may include an image preprocessing unit that performs image preprocessing to extract only a face portion of a character object included in the two-dimensional image data; a feature point detection unit that detects feature points for a face portion of a character object on which image preprocessing has been performed; a three-dimensional character face generation unit that performs three-dimensional modeling work and retouching work based on the feature points extracted by the feature point extraction unit to generate a three-dimensional character face; a three-dimensional character body setting unit that sets a three-dimensional body type to be applied to the three-dimensional character; a three-dimensional character clothing setting unit that sets a clothing type for a three-dimensional character model that combines the three-dimensional character face and the three-dimensional body; a three-dimensional character camera shot setting unit that sets a camera shot for the three-dimensional character model on which the clothing has been set; and a three-dimensional character motion setting unit that selects at least one motion concept from among a plurality of motion concepts prepared in advance and applies motion data according to the selected motion concept to the three-dimensional character model on which the camera shot has been set, thereby completing the three-dimensional character data capable of demonstrating motions.

또한, 상기 3차원 캐릭터 시뮬레이션 수행부는, 가상공간 내에서 상기 3차원 캐릭터데이터에 포함된 3차원 캐릭터 모델이 미리 설정된 동작을 시연하는 시뮬레이션을 수행하는 가상공간 시뮬레이션 수행부; 및 카메라를 통해 표출되는 촬영화면 속 물리객체 상에서 상기 3차원 캐릭터데이터에 포함된 3차원 캐릭터 모델이 중첩 표시되어 미리 설정된 동작을 시연하는 시뮬레이션을 수행하는 증강현실 시뮬레이션 수행부를 포함할 수 있다.In addition, the 3D character simulation performing unit may include a virtual space simulation performing unit that performs a simulation in which a 3D character model included in the 3D character data demonstrates preset movements in a virtual space; and an augmented reality simulation performing unit that performs a simulation in which a 3D character model included in the 3D character data is superimposed on a physical object in a captured screen displayed through a camera and demonstrates preset movements.

또한, 상기 증강현실 시뮬레이션 수행부는, 카메라를 통해 촬영되는 영상 내에서 형상이 미리 정의된 굿즈 및 책을 포함하는 물리객체를 인식하는 물리객체 인식부; 상기 물리객체 인식부를 통해 미리 정의된 물리객체가 인식되는 경우 상기 3차원 캐릭터 모델을 인식된 물리객체의 영역 상에서 중첩시켜 시뮬레이션하는 증강현실 실행부; 상기 3차원 캐릭터 모델이 시뮬레이션되는 가상영상에 대한 재생 위치 조정, 재생 정지, 및 재생 정지 상태에서 미리 설정된 시간 단위의 재생 위치 이동 기능을 수행하기 위한 재생 컨트롤 인터페이스를 제공하는 증강현실 재생 제어부; 상기 3차원 캐릭터 모델의 회전 뷰어 기능을 수행하기 위한 뷰어 컨트롤 인터페이스를 제공하는 증강현실 뷰어 제어부; 및 상기 3차원 캐릭터 모델이 시뮬레이션되는 가상영상에 대한 캡처 기능을 수행하되 상기 증강현실 재생 제어부를 통한 재생 정지 상태에서 활성화되는 캡처 실행 인터페이스를 제공하고, 상기 캡처 실행 인터페이스를 통한 캡처 실행 시 상기 물리객체 인식부를 통해 인식된 물리객체 및 상기 증강현실 재생 제어부를 통해 재생 정지된 상기 3차원 캐릭터 모델을 각각 추출 및 합성하여 물리객체 상에 특정 포즈를 취하는 상기 3차원 캐릭터 모델이 적용된 합성이미지데이터를 제공하는 증강현실 캡처 실행부를 포함할 수 있다.In addition, the augmented reality simulation performing unit comprises: a physical object recognition unit that recognizes a physical object including goods and books having a predefined shape within an image captured by a camera; an augmented reality execution unit that simulates a three-dimensional character model by overlapping the area of the recognized physical object when the predefined physical object is recognized through the physical object recognition unit; an augmented reality playback control unit that provides a playback control interface for performing a playback position adjustment, playback stop, and playback position movement at a preset time unit in a playback stop state for a virtual image in which the three-dimensional character model is simulated; an augmented reality viewer control unit that provides a viewer control interface for performing a rotation viewer function of the three-dimensional character model; And the three-dimensional character model may be simulated in a virtual image, and a capture execution interface may be provided that is activated in a playback stop state through the augmented reality playback control unit, and when capture is executed through the capture execution interface, the physical object recognized through the physical object recognition unit and the three-dimensional character model whose playback has been stopped through the augmented reality playback control unit may be extracted and synthesized, respectively, to provide composite image data in which the three-dimensional character model taking a specific pose on the physical object is applied.

본 발명에 따르면, 메타버스 플랫폼의 캐릭터 디자인 프로그램을 활용해 2차원 캐릭터를 3차원 캐릭터로 한번에 생성하여 3차원 캐릭터 샘플 및 3차원 캐릭터 샘플의 사전 시뮬레이션을 제공함으로써, 종래에 3차원 캐릭터 모델링에 소요되는 불필요한 시간과 비용을 절감하고, OSMU(One Source Multi Use)와 연계되는 캐릭터 사업에 대한 사후 진행 여부를 신속히 판단할 수 있도록 할 뿐만 아니라, 캐릭터 연계 사업에 대한 투자, 제작협의 등에 대한 효율성을 극대화시킬 수 있는 OSMU를 위한 3차원 캐릭터 샘플 생성 서비스 제공 시스템을 제공할 수 있다.According to the present invention, by utilizing a character design program of a metaverse platform to create a 2D character as a 3D character at once and providing a 3D character sample and a preliminary simulation of the 3D character sample, unnecessary time and cost required for 3D character modeling in the past are reduced, and not only is it possible to quickly determine whether to proceed with a character business linked to OSMU (One Source Multi Use) after the fact, but also to provide a 3D character sample creation service system for OSMU that can maximize the efficiency of investment, production consultation, etc. for a character-linked business.

도 1은 본 발명의 실시예에 따른 OSMU를 위한 3차원 캐릭터 샘플 생성 서비스 제공 시스템의 전체 구성을 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 2차원 이미지데이터 획득부의 구성을 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 2차원 이미지데이터 획득부를 통해 획득할 수 있는 2차원 이미지데이터에 대한 예시를 설명하기 위해 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 3차원 이미지캐릭터 생성부의 구성을 나타낸 블록도이다.
도 5는 본 발명의 실시예에 따른 3차원 이미지캐릭터 생성부를 통하여 3차원 캐릭터 모델을 생성하는 프로세스를 설명하기 위해 나타낸 도면이다.
도 6 및 도 7은 본 발명의 실시예에 따라 생성된 3차원 캐릭터 모델의 예시를 나타낸 도면이다.
도 8은 본 발명의 실시예에 따른 3차원 캐릭터 시뮬레이션 수행부의 구성을 나타낸 블록도이다.
도 9는 본 발명의 실시예에 따른 증강현실 시뮬레이션 수행부의 구성을 나타낸 블록도이다.
도 10 및 도 11은 본 발명의 실시예에 따른 증강현실 시뮬레이션 수행부를 통해 시뮬레이션되는 3차원 캐릭터 모델의 증강현실 방식과 재생 및 캡처 기능을 설명하기 위해 예시적으로 나타낸 도면이다.
FIG. 1 is a block diagram showing the overall configuration of a three-dimensional character sample generation service providing system for OSMU according to an embodiment of the present invention.
FIG. 2 is a block diagram showing the configuration of a two-dimensional image data acquisition unit according to an embodiment of the present invention.
FIG. 3 is a drawing illustrating an example of two-dimensional image data that can be acquired through a two-dimensional image data acquisition unit according to an embodiment of the present invention.
Figure 4 is a block diagram showing the configuration of a three-dimensional image character generation unit according to an embodiment of the present invention.
FIG. 5 is a drawing illustrating a process for creating a three-dimensional character model through a three-dimensional image character creation unit according to an embodiment of the present invention.
FIGS. 6 and 7 are drawings showing examples of three-dimensional character models generated according to embodiments of the present invention.
Figure 8 is a block diagram showing the configuration of a three-dimensional character simulation performing unit according to an embodiment of the present invention.
Figure 9 is a block diagram showing the configuration of an augmented reality simulation performing unit according to an embodiment of the present invention.
FIGS. 10 and 11 are exemplary drawings illustrating the augmented reality method and the playback and capture functions of a three-dimensional character model simulated through an augmented reality simulation performing unit according to an embodiment of the present invention.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.The terms used in this specification will be briefly explained, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention are selected from the most widely used general terms possible while considering the functions of the present invention, but they may vary depending on the intention of engineers working in the field, precedents, the emergence of new technologies, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meanings thereof will be described in detail in the description of the relevant invention. Therefore, the terms used in the present invention should be defined based on the meanings of the terms and the overall contents of the present invention, rather than simply the names of the terms.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나 이상의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When a part of the specification is said to "include" a component, this does not mean that it excludes other components, but rather that it may include other components, unless otherwise specifically stated. In addition, terms such as "part", "module", etc. described in the specification mean a unit that processes at least one function or operation, which may be implemented by hardware or software, or a combination of hardware and software.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily practice the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are assigned similar drawing reference numerals throughout the specification.

도 1은 본 발명의 실시예에 따른 OSMU를 위한 3차원 캐릭터 샘플 생성 서비스 제공 시스템의 전체 구성을 나타낸 블록도이고, 도 2는 본 발명의 실시예에 따른 2차원 이미지데이터 획득부의 구성을 나타낸 블록도이고, 도 3은 본 발명의 실시예에 따른 2차원 이미지데이터 획득부를 통해 획득할 수 있는 2차원 이미지데이터에 대한 예시를 설명하기 위해 나타낸 도면이고, 도 4는 본 발명의 실시예에 따른 3차원 이미지캐릭터 생성부의 구성을 나타낸 블록도이고, 도 5는 본 발명의 실시예에 따른 3차원 이미지캐릭터 생성부를 통하여 3차원 캐릭터 모델을 생성하는 프로세스를 설명하기 위해 나타낸 도면이고, 도 6 및 도 7은 본 발명의 실시예에 따라 생성된 3차원 캐릭터 모델의 예시를 나타낸 도면이고, 도 8은 본 발명의 실시예에 따른 3차원 캐릭터 시뮬레이션 수행부의 구성을 나타낸 블록도이고, 도 9는 본 발명의 실시예에 따른 증강현실 시뮬레이션 수행부의 구성을 나타낸 블록도이며, 도 10 및 도 11은 본 발명의 실시예에 따른 증강현실 시뮬레이션 수행부를 통해 시뮬레이션되는 3차원 캐릭터 모델의 증강현실 방식과 재생 및 캡처 기능을 설명하기 위해 예시적으로 나타낸 도면이다.FIG. 1 is a block diagram showing the entire configuration of a three-dimensional character sample generation service providing system for OSMU according to an embodiment of the present invention, FIG. 2 is a block diagram showing the configuration of a two-dimensional image data acquisition unit according to an embodiment of the present invention, FIG. 3 is a diagram showing an example of two-dimensional image data that can be acquired through a two-dimensional image data acquisition unit according to an embodiment of the present invention, FIG. 4 is a block diagram showing the configuration of a three-dimensional image character generation unit according to an embodiment of the present invention, FIG. 5 is a diagram showing a process of generating a three-dimensional character model through a three-dimensional image character generation unit according to an embodiment of the present invention, FIGS. 6 and 7 are diagrams showing examples of three-dimensional character models generated according to an embodiment of the present invention, FIG. 8 is a block diagram showing the configuration of a three-dimensional character simulation performing unit according to an embodiment of the present invention, FIG. 9 is a block diagram showing the configuration of an augmented reality simulation performing unit according to an embodiment of the present invention, and FIGS. 10 and 11 are diagrams showing an augmented reality method and a reproduction and capture function of a three-dimensional character model simulated through an augmented reality simulation performing unit according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 OSMU를 위한 3차원 캐릭터 샘플 생성 서비스 제공 시스템(1000)은 2차원 이미지데이터 획득부(100), 3차원 캐릭터데이터 생성부(200) 및 3차원 캐릭터 시뮬레이션 수행부(300) 중 적어도 하나를 포함할 수 있다. Referring to FIG. 1, a 3D character sample generation service providing system (1000) for OSMU according to an embodiment of the present invention may include at least one of a 2D image data acquisition unit (100), a 3D character data generation unit (200), and a 3D character simulation performance unit (300).

여기서, OSMU은 하나의 콘텐츠를 이용해 영화, 애니메이션, 캐릭터 상품, 음반, 굿즈 등 다양한 방안으로 변용하여 판매함으로써 콘텐츠의 가치를 극대화시키는 문화 산업의 전략 중 하나로, 본 실시예에서는 해당 사업을 진행하기에 앞서 사진, 이미지, 컨셉트 뿐만 아니라, 스토리, 주제 등에 관한 간단한 정보만으로 3차원 캐릭터에 대한 사전 시뮬레이션이 가능한 데이터를 생성하여 제공함으로써 투자, 제작협의 과정에 이르기까지 발생될 수 있는 시간적 낭비와 비용적 부담을 줄여 사업 진행에 대한 효율성을 높여줄 수 있다.Here, OSMU is one of the strategies of the cultural industry that maximizes the value of content by transforming and selling a single content in various ways such as movies, animations, character products, records, and goods. In this example, prior to proceeding with the business, data is generated and provided that enables preliminary simulation of 3D characters with only simple information such as photos, images, and concepts as well as stories and topics, thereby reducing time waste and cost burden that may occur up to the investment and production consultation processes, thereby increasing the efficiency of business progress.

상기 2차원 이미지데이터 획득부(100)는 다양한 인물객체를 포함하는 2차원 이미지데이터를 획득할 수 있다. 본 실시예에서 인물객체는 실제 사람, 가상의 인물, 의인화된 동물 캐릭터, 의인화된 사물 캐릭터 등을 포함할 수 있으며, 이에 대한 보다 상세한 설명은 후술한다.The above two-dimensional image data acquisition unit (100) can acquire two-dimensional image data including various human objects. In this embodiment, human objects can include real people, virtual people, personified animal characters, personified object characters, etc., and a more detailed description thereof will be provided later.

이를 위해 2차원 이미지데이터 획득부(100)는 도 2에 도시된 바와 같이, 촬영영상데이터 획득부(110) 및 그래픽이미지데이터 획득부(120) 중 적어도 하나를 포함할 수 있다.To this end, the two-dimensional image data acquisition unit (100) may include at least one of a photographed image data acquisition unit (110) and a graphic image data acquisition unit (120), as illustrated in FIG. 2.

상기 촬영영상데이터 획득부(110)는, 인물객체가 실제인물인 경우 카메라를 통해 촬영된 영상데이터를 2차원 이미지데이터로서 획득할 수 있다. The above-mentioned video data acquisition unit (110) can acquire video data captured by a camera as two-dimensional image data when the person object is a real person.

예를 들어, OSMU(One Source Multi Use) 사업을 진행하기 위한 캐릭터 선정에 있어서 연예인, 인플루언서, 정치인 등 실제인물을 대상으로 진행하고자 하는 경우, 카메라를 통해 해당 인물의 사진을 촬영하여 영상데이터(2차원 이미지데이터)를 획득할 수 있다. For example, when selecting a character for an OSMU (One Source Multi Use) project and using real people such as celebrities, influencers, and politicians as the target, a picture of the person can be taken using a camera to obtain image data (2D image data).

상기 그래픽이미지데이터 획득부(120)는, 인물객체가 가상인물인 경우 가상인물에 대하여 디자인된 2차원 캐릭터이미지를 갖는 그래픽이미지데이터를 제공 받아 2차원 이미지데이터로서 획득할 수 있다.The above graphic image data acquisition unit (120) can receive graphic image data having a two-dimensional character image designed for a virtual person when the character object is a virtual person and acquire it as two-dimensional image data.

예를 들어, OSMU(One Source Multi Use) 사업을 진행하기 위한 캐릭터 선정에 있어서 가상의 인물, 의인화된 동물 캐릭터, 의인화된 사물 캐릭터 등과 관련된 캐릭터이미지를 대상으로 진행하고자 하는 경우, 해당 2차원 캐릭터이미지가 디자인된 스캔파일, 이미지파일 등을 제공 받고, 제공된 파일에 대한 디지털 이미지 변환을 통해 그래픽이미지데이터(2차원 이미지데이터)를 획득할 수 있다.For example, in selecting characters for an OSMU (One Source Multi Use) project, if the target is character images related to virtual people, anthropomorphic animal characters, anthropomorphic object characters, etc., scan files or image files of the designed 2D character images are provided, and graphic image data (2D image data) can be obtained through digital image conversion of the provided files.

이와 같이, 2차원 이미지데이터 획득부(100)는 영상데이터 형태 및/또는 그래픽이미지데이터 형태의 2차원 이미지데이터를 획득함으로써 2차원 캐릭터에 대한 정보를 확보할 수 있다.In this way, the two-dimensional image data acquisition unit (100) can secure information about a two-dimensional character by acquiring two-dimensional image data in the form of image data and/or graphic image data.

상기 3차원 캐릭터데이터 생성부(200)는, 메타버스 플랫폼의 캐릭터 디자인 프로그램을 통해 2차원 이미지데이터에 포함된 인물객체에 대한 3차원 모델링 작업을 수행하여 3차원 캐릭터 모델을 생성하고, 생성된 3차원 캐릭터 모델에 동작을 설정하여 동작 시연이 가능한 3차원 캐릭터데이터를 생성할 수 있다. The above 3D character data generation unit (200) can generate a 3D character model by performing 3D modeling work on a character object included in 2D image data through a character design program of a metaverse platform, and can create 3D character data capable of demonstrating movement by setting movement to the generated 3D character model.

본 실시예에 따른 캐릭터 디자인 프로그램의 경우 예를 들어 '제페토'라는 메타버스 플랫폼에서 사용되는 3차원 아바타를 생성하는 프로그램을 활용하여 한번의 작업을 통해 3차원 캐릭터를 쉽고 빠르게 생성할 수 있다.In the case of a character design program according to this embodiment, a 3D character can be easily and quickly created in a single operation by utilizing a program that creates a 3D avatar used in a metaverse platform called 'Zepeto', for example.

이러한 3차원 캐릭터데이터 생성부(200)는 도 4에 도시된 바와 같이, 이미지 전처리부(210), 특징점 검출부(220), 3차원 캐릭터 얼굴 생성부(230), 3차원 캐릭터 바디 설정부(240), 3차원 캐릭터 의상 설정부(250), 3차원 캐릭터 카메라 샷 설정부(260) 및 3차원 캐릭터 동작 설정부(270) 중 적어도 하나를 포함할 수 있다.This 3D character data generation unit (200) may include at least one of an image preprocessing unit (210), a feature point detection unit (220), a 3D character face generation unit (230), a 3D character body setting unit (240), a 3D character clothing setting unit (250), a 3D character camera shot setting unit (260), and a 3D character movement setting unit (270), as illustrated in FIG. 4.

상기 이미지 전처리부(210)는, 얼굴 이미지 데이터에 대한 사전 처리 작업을 수행할 수 있다. The above image preprocessing unit (210) can perform preprocessing work on facial image data.

예를 들어, 전체 2차원 이미지데이터 중에서 원하는 얼굴 부분만을 추출하거나 사진의 밝기, 색상 등의 사전 수정 작업을 수행할 수 있다. For example, you can extract only the desired face part from the entire 2D image data or perform pre-correction work on the brightness, color, etc. of the photo.

또한, 인물객체의 얼굴부분만을 추출한 이후 정확한 얼굴의 특징점을 추출할 수 있도록 이미지 틸팅 작업을 더 수행할 수도 있다. 이미지 틸팅 작업은 사진의 얼굴부분을 2차원 평면 상에서 회전시켜 눈, 코, 입, 눈썹, 귀와 같이 얼굴을 구성하는 요소들이 2차원 평면 상에서 기울어지지 않도록 하여 얼굴의 특징점을 보다 정확하게 추출하는데 도움을 줄 수 있다.In addition, after extracting only the face part of the character object, an image tilting operation can be performed further so that accurate facial feature points can be extracted. The image tilting operation rotates the face part of the photo on a two-dimensional plane so that elements that make up the face, such as the eyes, nose, mouth, eyebrows, and ears, do not tilt on the two-dimensional plane, which can help extract facial feature points more accurately.

상기 특징점 검출부(220)는, 이미지 전처리가 수행된 인물객체의 얼굴부분에 대하여 딥러닝 기술을 기반으로 특징점을 검출할 수 있다.The above feature point detection unit (220) can detect feature points based on deep learning technology for the face portion of a human object for which image preprocessing has been performed.

좀 더 구체적으로 설명하면, 딥러닝 학습을 기반으로 얼굴의 눈, 코, 입, 턱 등을 인식하도록 학습 모듈을 구비하며, 기계 학습 모듈을 이용하여 얼굴의 특징점 정보를 추출할 수 있다. 미리 구축된 딥러닝 학습모델로 얼굴데이터를 검출해 새로운 이미지에 적용된 딥러닝 모델의 정확도를 교차 검증하고 검출된 이목구비의 주요 특징을 도출할 수 있다.To explain more specifically, it has a learning module to recognize the eyes, nose, mouth, chin, etc. of the face based on deep learning learning, and can extract facial feature information using a machine learning module. By detecting facial data with a pre-built deep learning learning model, the accuracy of the deep learning model applied to a new image can be cross-validated, and the main features of the detected facial features can be derived.

이러한 얼굴 특징점 추출 과정은 먼저 전처리 과정을 수행한 후 레이블링 연산에서 추출된 후보 객체정보로부터 특징점을 추출하기 위해 다음과 같은 각각의 얼굴 검출 알고리즘이 적용될 수 있다. This facial feature extraction process first performs a preprocessing process, and then each of the following facial detection algorithms can be applied to extract feature points from candidate object information extracted in the labeling operation.

눈 특징점 검출은 레이블링 연산을 수행한 후 추출한 얼굴개체들에 대해 수직, 수평좌표를 이용하여 수평중앙선 위쪽과 수직중앙선 왼쪽에 존재하는 객체 중에서 대칭되는 객체의 존재여부를 가려낼 수 있다. 대칭되는 객체가 두 개 이상 존재하면 대칭되는 객체들의 아래 쪽에 위치하고, 임계 값 이하인 대칭 쌍을 눈 특징점 영역으로 추출할 수 있다. Eye feature detection can detect whether there is a symmetrical object among the objects above the horizontal center line and to the left of the vertical center line using vertical and horizontal coordinates for the facial objects extracted after performing the labeling operation. If there are two or more symmetrical objects, the symmetrical pair located below the symmetrical objects and below the threshold value can be extracted as the eye feature area.

또한, 코 특징점 검출은 눈 특징점을 검출한 후 레이블링 된 연산된 객체들 중에서 눈 아래와 양쪽 눈 사이에 존재하며, 수직좌표 차이가 임계 값 이하인 객체를 코 영역으로 추출할 수 있다. In addition, nose feature detection can extract objects that exist between the eyes and both eyes among the labeled computed objects after detecting eye features, and whose vertical coordinate difference is less than a threshold value as the nose region.

그리고, 입 특징점 추출은 코 특징점 추출 후 레이블링 연산된 객체들 중에서 코 영역 아래에 위치하고 두 눈 좌표의 외곽 끝점 내에 존재하는 객체를 입 영역으로 추출할 수 있다.And, among the objects that have been labeled after the extraction of nose features, the mouth feature extraction can extract objects that are located below the nose area and within the outer endpoints of the two eye coordinates as the mouth area.

이외에도 얼굴 특징점 정보를 세부 분류하기 위해 얼굴형태, 눈 크기, 눈꼬리 높이, 눈썹 모양, 눈썹 길이, 눈썹꼬리 높이, 이마 높이, 이마 폭, 코 길이, 콧망울 크기, 입술 두께, 입 크기, 입술 꼬리 높이, 인당(눈과 눈썹 간 거리), 인중(코와 윗입술간 거리), 미간(눈썹간 거리)의 형태와 길이 정보를 추출하여 세부분류에 사용할 수 있다.In addition, in order to classify facial feature information in detail, the shape and length information of face shape, eye size, eye tail height, eyebrow shape, eyebrow length, eyebrow tail height, forehead height, forehead width, nose length, nostril size, lip thickness, mouth size, lip tail height, infatuation (distance between eyes and eyebrows), philtrum (distance between nose and upper lip), and glabella (distance between eyebrows) can be extracted and used for detailed classification.

상기 3차원 캐릭터 얼굴 생성부(230)는, 특징점 추출부(220)에서 추출된 특징점에 기반하여 3차원 모델링 작업 및 리터칭 작업을 수행하여 3차원 캐릭터 얼굴을 생성할 수 있다.The above 3D character face generation unit (230) can generate a 3D character face by performing 3D modeling work and retouching work based on the feature points extracted by the feature point extraction unit (220).

상술한 바와 같이 얼굴의 윤곽 정보와 얼굴 특징점 정보에 기반하여 3차원 캐릭터 얼굴(아바타 얼굴)을 생성함으로써, 입력된 2차원 이미지데이터에 포함된 인물객체의 얼굴부분에서 추출한 특징점 정보를 기반으로 3차원 모델링 작업을 수행함으로써 해당 객체와 닮은 3차원 메시(mesh)를 생성할 수 있다. As described above, by generating a 3D character face (avatar face) based on facial contour information and facial feature point information, a 3D mesh resembling the object can be generated by performing a 3D modeling task based on feature point information extracted from the face portion of a character object included in the input 2D image data.

상기 3차원 캐릭터 얼굴 생성부(230)는, 딥러닝 학습모델의 정확도가 새로운 이미지에 적용해도 최소화 되었다고 판단되면, 입력된 이미지데이터로부터 검출된 얼굴의 주요 특징(feature-point)을 라이브러리에 준비된 3차원 얼굴 메시(mesh)의 대칭점(match-point)에 대입할 수 있다. The above 3D character face generation unit (230) can substitute the main features (feature-points) of the face detected from the input image data into the symmetrical points (match-points) of the 3D face mesh prepared in the library if it is determined that the accuracy of the deep learning learning model has been minimized even when applied to a new image.

본 실시예에 따른 라이브러리는 최초 입력 및 인식된 2차원 캐릭터 및/또는 최종 구현할 3차원 캐릭터에 대한 컨셉트와, 캐릭터 생성을 위한 간단한 스토리, 주제, 캐릭터 스타일 등에 관한 메타정보에 따른 다양한 타입 3차원 얼굴 그래픽 데이터가 저장되어 있어, 추출된 3차원 특징정보를 반영해 빠르고 정확하고 쉽게 3차원 캐릭터 얼굴에 대한 초안을 생성할 수 있도록 한다.The library according to this embodiment stores various types of 3D facial graphic data according to the concept of the initially input and recognized 2D character and/or the final 3D character to be implemented, and the simple story for character creation, the theme, the character style, and other meta-information, so that a draft of a 3D character face can be created quickly, accurately, and easily by reflecting the extracted 3D feature information.

한편, 3차원 캐릭터 얼굴 생성부(230)는, 3차원으로 모델링 된 캐릭터 얼굴에 대한 리터칭 작업을 수행할 수 있도록 하여 최초 2차원 캐릭터 얼굴의 특징을 좀 더 정확하고 디테일하고 구현할 수 있도록 한다.Meanwhile, the 3D character face generation unit (230) enables retouching work on a 3D modeled character face, thereby enabling more accurate and detailed implementation of the features of the original 2D character face.

상기 3차원 캐릭터 바디 설정부(240)는, 3차원 캐릭터에 적용될 3차원 바디 타입을 설정할 수 있다. The above 3D character body setting unit (240) can set a 3D body type to be applied to a 3D character.

예를 들어, 도 5에 도시된 바와 같이 바디 타입 1(날씬한 스타일), 바디 타입 2(통통한 스타일), 바디 타입 3(뚱뚱한 스타일) 중 어느 하나를 선택할 수 있으며, 각각의 바디 타입 별 세부 타입을 선택할 수 있다. 즉, 날씬한 스타일 중에서 팔 또는 다리 길이가 긴 타입, 짧은 타입, 두꺼운 타입 중 어느 하나를 선택할 수 있다. 이와 같이, 라이브러리에 준비된 다양하고 세부적인 3차원 바디 타입에 대한 선택 및 설정을 통해 2차원 캐릭터의 바디에 가까운 3차원 체형을 빠르게 제작할 수 있다. For example, as shown in FIG. 5, you can select one of body type 1 (slim style), body type 2 (chubby style), and body type 3 (fat style), and you can select a detailed type for each body type. That is, among the slim styles, you can select one of the long arm or leg types, short types, and thick types. In this way, you can quickly create a three-dimensional body shape close to a two-dimensional character's body by selecting and setting various detailed three-dimensional body types prepared in the library.

본 실시예에 따른 3차원 바디 타입 설정은 3차원 캐릭터 얼굴에 적용될 아바타 체형을 선택하는 것으로, 본 실시예에서는 3차원 캐릭터 모델에 대한 최종 결과물을 도출하는 것보다는 2차원 캐릭터에 대한 대략적인 3차원 캐릭터 샘플 또는 초안과 그에 따른 사전 시뮬레이션을 제공함에 목적이 있는 바, 이러한 목적을 달성하기 위해 3차원 캐릭터의 바디는 라이브러리에 저장된 다양한 바디 타입을 선택하는 방식으로 제작될 수 있다.The 3D body type setting according to the present embodiment is to select an avatar body type to be applied to a 3D character face. In the present embodiment, the purpose is to provide a rough 3D character sample or draft and a preliminary simulation thereof for a 2D character rather than to derive a final result for a 3D character model. To achieve this purpose, the body of the 3D character can be produced by selecting various body types stored in a library.

상기 3차원 캐릭터 의상 설정부(250)는, 3차원 캐릭터 얼굴 및 3차원 바디를 결합한 3차원 캐릭터 모델에 의상 타입을 설정할 수 있다.The above 3D character costume setting unit (250) can set a costume type for a 3D character model that combines a 3D character face and a 3D body.

본 실시예에서 3차원 캐릭터 의상은 2차원 캐릭터이미지에서 보이는 패션 스타일대로 구현할 수 있으나, 최종 결과물의 컨셉트나 기타 요소를 반영해 3차원 캐릭터 모델을 제작하는 과정에서 다양하게 변경할 수 있도록 한다. In this embodiment, the 3D character costume can be implemented in the fashion style shown in the 2D character image, but can be changed in various ways during the process of creating the 3D character model to reflect the concept or other elements of the final result.

예를 들어, 도 5에 도시된 바와 같이 의상 타입 1(저작권이 없는 유명 브랜드 의상), 의상 타입 2(저작권이 없는 메타버스 캐릭터 의상), 의상 타입 3(크리에이터에 의해 디자인 된 의상) 등 다양한 의상 중 원하는 의상 타입을 선택한 후, 선택된 의상 타입 중에 미리 마련된 다양한 의상 디자인을 선택하여 3차원 캐릭터 모델에 입힐 의상을 최종적으로 적용할 수 있도록 한다.For example, as shown in Fig. 5, after selecting a desired costume type from among various costumes such as costume type 1 (copyright-free famous brand costume), costume type 2 (copyright-free metaverse character costume), and costume type 3 (costume designed by the creator), one can select various pre-prepared costume designs from among the selected costume types to finally apply the costume to the 3D character model.

상기 3차원 캐릭터 카메라 샷 설정부(260)는, 의상이 설정된 3차원 캐릭터 모델에 대한 카메라 샷을 설정할 수 있다.The above 3D character camera shot setting unit (260) can set a camera shot for a 3D character model with set clothing.

예를 들어, 도 5에 도시된 바와 같이 상반신, 무릎, 전신 등의 카메라 샷 중 적어도 하나의 샷 타입을 선택할 수 있으나, 이는 일례일 뿐이며, 필드 크기, 카메라 수준, 카메라 뷰 각도 및 움직임에 따라 다양하게 분류되어 선택 가능하도록 할 수 있다.For example, as shown in FIG. 5, at least one shot type can be selected from among camera shots of the upper body, knees, and full body, but this is only an example, and can be categorized and selected in various ways according to field size, camera level, camera view angle, and movement.

상기 3차원 캐릭터 동작 설정부(270)는, 미리 마련된 다수의 동작 컨셉트 중 적어도 하나의 동작 컨셉트를 선택하고, 선택된 동작 컨셉트에 따른 모션데이터를 카메라 샷이 설정된 3차원 캐릭터 모델에 적용하여 동작 시연이 가능한 3차원 캐릭터데이터를 완성할 수 있다.The above 3D character motion setting unit (270) can select at least one motion concept from among a plurality of motion concepts prepared in advance and apply motion data according to the selected motion concept to a 3D character model with a camera shot set to complete 3D character data capable of demonstrating motion.

예를 들어, 도 5에 도시된 바와 같이 댄스, 퍼포먼스, 코믹 등의 동작(무빙) 컨셉트 중 적어도 어느 하나를 선택할 수 있으나, 이는 일례일 뿐이며, 챌린지, 일상, 러블리, 파티, 스타일리쉬, 우정샷, 감정적인, 편안한, 귀여운, 액티브 등 다양한 키워드와 그에 따른 모션데이터를 포함하는 동작 컨셉트를 선택할 수 있도록 할 수 있다.For example, as shown in FIG. 5, at least one of the movement concepts such as dance, performance, and comic can be selected, but this is only an example, and it is possible to select a movement concept including various keywords and corresponding motion data such as challenge, daily life, lovely, party, stylish, friendship shot, emotional, comfortable, cute, and active.

한편, 본 실시예에 따른 동작 컨셉트는 시간의 흐름에 따라 3차원 캐릭터 모델이 특정한 동작으로 움직이는 개념뿐만 아니라, 특정 포즈를 취하는 동작에 대한 개념도 적용될 수 있으며, 이에 따라 별도의 포즈 선택도 가능하다.Meanwhile, the motion concept according to the present embodiment can be applied not only to the concept of a 3D character model moving in a specific motion over time, but also to the concept of a motion taking a specific pose, and accordingly, separate pose selection is also possible.

상술한 3차원 캐릭터의 얼굴, 바디(체형), 의상 등은 모두 작업자에 의해 리터칭이 가능하도록 하여 커스터마이징 할 수 있다.The face, body, and clothing of the 3D character described above can all be customized by the artist through retouching.

상기 3차원 캐릭터 시뮬레이션 수행부(300)는 3차원 캐릭터데이터에 대한 시뮬레이션을 수행할 수 있다.The above 3D character simulation performing unit (300) can perform a simulation on 3D character data.

이러한 3차원 캐릭터 시뮬레이션 수행부(300)는 도 8에 도시된 바와 같이, 가상공간 시뮬레이션 수행부(310) 및 증강현실 시뮬레이션 수행부(320) 중 적어도 하나를 포함할 수 있다.This 3D character simulation performing unit (300) may include at least one of a virtual space simulation performing unit (310) and an augmented reality simulation performing unit (320), as illustrated in FIG. 8.

상기 가상공간 시뮬레이션 수행부(310)는, 가상공간 내에서 상기 3차원 캐릭터데이터에 포함된 3차원 캐릭터 모델이 미리 설정된 동작을 시연하는 시뮬레이션을 수행할 수 있다.The above virtual space simulation execution unit (310) can perform a simulation in which a 3D character model included in the 3D character data demonstrates preset movements within a virtual space.

예를 들어, 도 6에 도시된 바와 같이 미리 마련된 가상공간 안에서 3차원 캐릭터 모델이 상기한 바와 같이 설정된 동작(무빙)을 시연하는 시뮬레이션이 수행될 수 있다. For example, as illustrated in Fig. 6, a simulation can be performed in which a 3D character model demonstrates the motion (movement) set as described above in a pre-prepared virtual space.

또한, 도 7에 도시된 바와 같이 미리 마련된 가상공간 안에서 2인 이상의 3차원 캐릭터 모델이 특정 포즈를 취하는 형태의 결과물을 제공하는 시뮬레이션이 수행될 수도 있다.Additionally, as illustrated in Fig. 7, a simulation may be performed that provides a result in the form of two or more 3D character models taking a specific pose in a pre-prepared virtual space.

상기 증강현실 시뮬레이션 수행부(320)는, 카메라를 통해 표출되는 촬영화면 속 물리객체 상에서 3차원 캐릭터데이터에 포함된 3차원 캐릭터 모델이 중첩 표시되어 미리 설정된 동작을 시연하는 증강현실 기반 시뮬레이션을 수행할 수 있다.The above augmented reality simulation execution unit (320) can perform an augmented reality-based simulation in which a 3D character model included in the 3D character data is superimposed on a physical object in a captured screen displayed through a camera and demonstrates a preset movement.

이러한 증강현실 시뮬레이션 수행부(320)는 도 9에 도시된 바와 같이, 물리객체 인식부(321), 증강현실 실행부(322), 증강현실 재생 제어부(323), 증강현실 뷰어 제어부(324) 및 증강현실 캡처 실행부(325) 중 적어도 하나를 포함할 수 있다.As shown in FIG. 9, this augmented reality simulation execution unit (320) may include at least one of a physical object recognition unit (321), an augmented reality execution unit (322), an augmented reality playback control unit (323), an augmented reality viewer control unit (324), and an augmented reality capture execution unit (325).

본 실시예에서는 3차원 캐릭터 모델이라는 하나의 소재로 다양한 장르의 사업을 진행하는 OSMU(One Source Multi Use)를 위하여, 특히 실물이 존재하는 상품에 해당 3차원 캐릭터를 적용했을 때의 대략적 이미지를 확인할 필요가 있는 바, 증강현실 시뮬레이션 수행부(320)는 이를 지원할 수 있도록 구성된다.In this embodiment, for OSMU (One Source Multi Use) that conducts various types of business using a single material called a 3D character model, it is necessary to check a rough image of the 3D character applied to a real product, and the augmented reality simulation execution unit (320) is configured to support this.

상기 물리객체 인식부(321)는, 카메라를 통해 촬영되는 영상 내에서 형상이 미리 정의된 굿즈 및 책을 포함하는 물리객체를 인식할 수 있다. The above physical object recognition unit (321) can recognize physical objects including goods and books with predefined shapes in an image captured by a camera.

좀 더 구체적으로는, 비 마커 인식 방식으로서 카메라 영상 내에서 티셔츠, 바지, 신발, 컵, 캔들 등 그 형상이 미리 정의되어 있는 다양한 굿즈를 인식하도록 할 수 있으며, 굿즈와는 다른 성격의 상품(또는 물리객체)인 책도 인식할 수 있도록 한다.More specifically, it can be used to recognize various goods whose shapes are predefined, such as T-shirts, pants, shoes, cups, and candles, in a non-marker recognition method within a camera image, and it can also recognize books, which are products (or physical objects) with different characteristics from goods.

상기 증강현실 실행부(322)는, 물리객체 인식부(321)를 통해 미리 정의된 물리객체(굿즈, 책 등)가 인식되는 경우, 3차원 캐릭터데이터 생성부(200)를 통해 생성된 3차원 캐릭터 모델을 해당 물리객체의 영역 상에서 중첩시켜 증강현실 기반의 시뮬레이션을 수행할 수 있도록 한다.The above augmented reality execution unit (322) enables augmented reality-based simulation by overlapping a 3D character model generated through the 3D character data generation unit (200) on the area of the corresponding physical object when a predefined physical object (goods, books, etc.) is recognized through the physical object recognition unit (321).

예를 들어, 도 10에 도시된 바와 같이 카메라 촬영화면을 통해 본 실시예에 따라 그 형상이 미리 정의된 물리객체 중 의류(티셔츠)가 인식되는 경우, 미리 제작된 3차원 캐릭터 모델에 대한 가상영상이 해당 의류(티셔츠) 영역 안에서 증강현실 방식으로 해당 촬영화면 상에 출력되며, 출력된 3차원 캐릭터 모델이 미리 설정된 동작(무빙)을 시연하는 시뮬레이션이 수행될 수 있다. For example, as illustrated in FIG. 10, when a clothing (T-shirt) is recognized among physical objects whose shapes are predefined according to an embodiment viewed through a camera shooting screen, a virtual image of a pre-made 3D character model is output on the shooting screen in an augmented reality manner within the area of the clothing (T-shirt), and a simulation can be performed in which the output 3D character model demonstrates a pre-set motion (movement).

상기 증강현실 재생 제어부(323)는, 3차원 캐릭터 모델이 시뮬레이션되는 가상영상에 대한 재생 위치 조정, 재생 정지, 및 재생 정지 상태에서 미리 설정된 시간 단위의 재생 위치 이동 기능을 수행하기 위한 재생 컨트롤 인터페이스(323a)를 제공할 수 있다.The above augmented reality playback control unit (323) can provide a playback control interface (323a) for performing playback position adjustment, playback stop, and playback position movement in preset time units in a playback stop state for a virtual image in which a 3D character model is simulated.

상기 재생 컨트롤 인터페이스(323a)은 도 11에 도시된 바와 같이 재생 슬라이더와 재생 컨트롤 가상버튼을 포함하는 형태로 제공될 수 있으며, 해당 가상버튼을 수평방향으로 이동시키는 재생조작명령이 입력되면 가상버튼이 위치하는 지점에 해당하는 부분의 가상영상이 재생(시뮬레이션)될 수 있다. 또한, 해당 가상버튼을 2회 이상 터치 또는 별도의 정지버튼을 선택하는 등의 재생정지명령이 입력되면 3차원 캐릭터 모델의 동작이 일시 정지된 상태로 동작 시연에 대한 시뮬레이션이 멈출 수 있다. 또한, 이와 같이 시뮬레이션이 정지된 상태에서 화면 세로 중앙선 기준으로 우측 화면을 2회 이상 터치하면 n초 단위(n초는 0.5초, 1초, 3초, 5초, 10초 등 다양하게 설정 가능)로 재생위치가 앞으로 이동하는데, 이동 후 화면이 재생되는 것이 아닌 해당 시간에 멈춘 상태로 표시될 수 있으며, 해당 세로 화면 기준으로 좌측 화면을 2회 이상 터치하면, n초 단위(n초는 0.5초, 1초, 3초, 5초, 10초 등 다양하게 설정 가능) 로 재생위치가 뒤로 이동할 수 있다. The above playback control interface (323a) may be provided in a form including a playback slider and a playback control virtual button as illustrated in FIG. 11, and when a playback operation command for moving the virtual button horizontally is input, a virtual image corresponding to the point where the virtual button is located may be played (simulated). In addition, when a playback stop command, such as touching the virtual button more than twice or selecting a separate stop button, is input, the simulation for the motion demonstration may be stopped with the motion of the 3D character model temporarily stopped. Also, when the simulation is stopped and you touch the right screen more than twice based on the vertical center line of the screen, the playback position moves forward in units of n seconds (n seconds can be set to various values such as 0.5 seconds, 1 second, 3 seconds, 5 seconds, or 10 seconds), but the screen may not play after moving and may be displayed as stopped at that time. When you touch the left screen more than twice based on the vertical screen, the playback position may move backward in units of n seconds (n seconds can be set to various values such as 0.5 seconds, 1 second, 3 seconds, 5 seconds, or 10 seconds).

한편, 3차원 캐릭터 모델이 화면 상에서 1개로 출력되는 것이 아니라, 특정 패턴을 형성하고자 하는 경우 다수 개로 일정한 배열 패턴(그리드 패턴, 일렬 패턴, 원형 패턴 등)을 갖도록 출력될 수도 있다.Meanwhile, instead of the 3D character model being output as one on the screen, if a specific pattern is to be formed, it may be output as multiple pieces with a certain arrangement pattern (grid pattern, line pattern, circular pattern, etc.).

상기 증강현실 뷰어 제어부(324)는, 도 11에 도시된 바와 같이 3차원 캐릭터 모델의 회전 뷰어 기능을 수행하기 위한 뷰어 컨트롤 인터페이스(324a)를 제공할 수 있다.The above augmented reality viewer control unit (324) can provide a viewer control interface (324a) for performing a rotation viewer function of a 3D character model as illustrated in FIG. 11.

상기 뷰어 컨트롤 인터페이스(324a)는 시뮬레이션이 정지 상태에 있는 3차원 캐릭터 모델을 상하좌우 방향으로 회전시킬 수 있으며, 회전에 따라 차원 캐릭터 모델을 바라보는 위치가 변경될 수 있어, 3차원 캐릭터 모델에 대하여 뷰어 각도를 다양하며 미세하게 조정할 수 있다.The above viewer control interface (324a) can rotate a three-dimensional character model in the up, down, left, and right directions when the simulation is stopped, and the viewing position of the three-dimensional character model can change according to the rotation, so that the viewer angle can be varied and finely adjusted for the three-dimensional character model.

상기 증강현실 캡처 실행부(325)는, 도 11에 도시된 바와 같이 3차원 캐릭터 모델이 시뮬레이션되는 가상영상에 대한 캡처 기능을 수행하되 증강현실 재생 제어부(323)를 통한 재생 정지 상태에서 활성화되는 캡처 실행 인터페이스(325a)를 제공하며, 캡처 실행 시 물리객체 인식부(321)를 통해 인식된 물리객체 및 증강현실 재생 제어부(323)를 통해 재생 정지된 3차원 캐릭터 모델을 각각 추출 및 합성하여 물리객체 상에 특정 포즈를 취하는 3차원 캐릭터 모델이 적용된 합성이미지데이터를 제공할 수 있다.The above augmented reality capture execution unit (325) performs a capture function for a virtual image in which a 3D character model is simulated, as illustrated in FIG. 11, and provides a capture execution interface (325a) that is activated in a playback stop state through the augmented reality playback control unit (323), and when the capture is executed, a physical object recognized through the physical object recognition unit (321) and a 3D character model whose playback is stopped through the augmented reality playback control unit (323) are respectively extracted and synthesized to provide a synthesized image data in which a 3D character model that assumes a specific pose on a physical object is applied.

좀 더 구체적으로 캡처 실행 인터페이스(325a)는, 재생 컨트롤 인터페이스(323a)를 통해 3차원 캐릭터 모델의 재생이 정지되면 활성화되어 재생 컨트롤 인터페이스(323a)의 재생 컨트롤 가상버튼 상에 표시(출력)되며, 해당 버튼을 선택(터치)하면 캡쳐 기능이 실행되어 촬영영상화면 속에서의 물리객체 즉, 티셔츠 이미지를 추출하고, 시뮬레이션되는 3차원 캐릭터 모델 즉, 3차원 캐릭터데이터를 추출한 후, 추출된 이미지를 합성할 수 있다. More specifically, the capture execution interface (325a) is activated when the playback of the 3D character model is stopped via the playback control interface (323a) and displayed (output) on the playback control virtual button of the playback control interface (323a). When the button is selected (touched), the capture function is executed to extract the physical object in the shooting video screen, i.e., the T-shirt image, and extract the simulated 3D character model, i.e., the 3D character data, and then synthesize the extracted image.

이때, 3차원 캐릭터 모델은 재생정지로 인해 특정 포즈를 취하고 있으며, 뷰어 회전을 통해 특정 각도로 회전되어 있어, 3차원 캐릭터가 티셔츠에 적용되었을 때 최대한 자연스러운 시안을 확보할 수 있도록 한다. At this time, the 3D character model is in a specific pose due to playback stop and is rotated at a specific angle through viewer rotation to ensure the most natural appearance possible when the 3D character is applied to the T-shirt.

이상에서는 티셔츠(의류)에 적용한 것을 설명하였으나, 이 뿐만 아니라 다양한 굿즈의 캐릭터와 책의 표지나 삽화 등으로 다양하게 적용될 수 있으며, 적용될 결과물을 가상으로 미리 볼 수 있도록 한다.The above explains the application to T-shirts (clothing), but it can be applied in various ways, such as characters for various goods, book covers, illustrations, etc., and it allows you to virtually preview the results to be applied.

본 실시예에 따르면 가령 '제페토' 등과 같은 다양한 메타버스 플랫폼의 캐릭터 디자인 프로그램을 활용해 2차원 캐릭터를 3차원 캐릭터로 한번에 생성하고, 이를 바탕으로 3차원 캐릭터 샘플 및 3차원 캐릭터 샘플의 사전 시뮬레이션을 제공할 수 있어, 종래에 3차원 캐릭터 모델링에 소요되는 불필요한 시간과 비용을 절감할 수 있을 뿐만 아니라, OSMU(One Source Multi Use)와 연계되는 캐릭터 사업에 대한 사후 진행 여부를 신속히 판단할 수 있도록 할 수 있도록 하여, 캐릭터 연계 사업에 대한 투자, 제작협의 등에 대한 효율성을 극대화시킬 수 있는 효과를 기대할 수 있다.According to this embodiment, by utilizing character design programs of various metaverse platforms, such as 'Zepeto', 2D characters can be created as 3D characters at once, and based on this, 3D character samples and preliminary simulations of 3D character samples can be provided, so that not only can unnecessary time and cost required for 3D character modeling in the past be reduced, but also it is expected that the efficiency of investment in character-linked businesses, production consultations, etc. can be maximized by enabling a quick judgment on whether to proceed with a character business linked to OSMU (One Source Multi Use).

이상에서 설명한 것은 본 발명에 의한 OSMU(One Source Multi Use)를 위한 3차원 캐릭터 샘플 생성 서비스 제공 시스템을 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 상기 실시예에 한정되지 않고, 이하의 특허청구범위에서 청구하는 바와 같이 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 있다고 할 것이다.The above is only one embodiment for implementing a three-dimensional character sample generation service providing system for OSMU (One Source Multi Use) according to the present invention, and the present invention is not limited to the above embodiment, and as claimed in the following claims, it will be understood that the technical spirit of the present invention encompasses a range in which various modifications can be implemented without departing from the gist of the present invention.

1000: OSMU를 위한 3차원 캐릭터 샘플 생성 서비스 제공 시스템
100: 2차원 이미지데이터 획득부
110: 촬영영상데이터 획득부
120: 그래픽이미지데이터 획득부
200: 3차원 캐릭터데이터 생성부
210: 이미지 전처리부
220: 특징점 검출부
230: 3차원 캐릭터 얼굴 생성부
240: 3차원 캐릭터 바디 설정부
250: 3차원 캐릭터 의상 설정부
260: 3차원 캐릭터 카메라 샷 설정부
270: 3차원 캐릭터 동작 설정부
300: 3차원 캐릭터 시뮬레이션 수행부
310: 가상공간 시뮬레이션 수행부
320: 증강현실 시뮬레이션 수행부
321: 물리객체 인식부
322: 증강현실 실행부
323: 증강현실 재생 제어부
323a: 재생 컨트롤 인터페이스
324: 증강현실 뷰어 제어부
324a: 뷰어 컨트롤 인터페이스
325: 증강현실 캡처 실행부
325a: 캡처 실행 인터페이스
1000: 3D Character Sample Generation Service Provider System for OSMU
100: 2D image data acquisition unit
110: Video data acquisition unit
120: Graphic image data acquisition section
200: 3D character data generation section
210: Image preprocessing unit
220: Feature point detection unit
230: 3D character face generation section
240: 3D character body setting section
250: 3D character costume setting section
260: 3D Character Camera Shot Setting
270: 3D character movement setting section
300: 3D Character Simulation Unit
310: Virtual space simulation execution department
320: Augmented Reality Simulation Performance Department
321: Physical Object Recognition Unit
322: Augmented Reality Execution Unit
323: Augmented Reality Playback Control Unit
323a: Playback Control Interface
324: Augmented Reality Viewer Control Unit
324a: Viewer Control Interface
325: Augmented Reality Capture Execution Unit
325a: Capture execution interface

Claims (4)

인물객체를 포함하는 2차원 이미지데이터를 획득하는 2차원 이미지데이터 획득부;
메타버스 플랫폼의 캐릭터 디자인 프로그램을 통해 상기 2차원 이미지데이터에 포함된 인물객체에 대한 3차원 모델링 작업을 수행하여 3차원 캐릭터 모델을 생성하고, 생성된 3차원 캐릭터 모델에 동작을 설정하여 동작 시연이 가능한 3차원 캐릭터데이터를 생성하는 3차원 캐릭터데이터 생성부; 및
상기 3차원 캐릭터데이터에 대한 시뮬레이션을 수행하는 3차원 캐릭터 시뮬레이션 수행부를 포함하는 것을 특징으로 하는 OSMU(One Source Multi Use)를 위한 3차원 캐릭터 샘플 생성 서비스 제공 시스템.
A two-dimensional image data acquisition unit that acquires two-dimensional image data including a character object;
A 3D character data generation unit that performs 3D modeling work on a character object included in the above 2D image data through a character design program of a metaverse platform to create a 3D character model, and sets movements to the created 3D character model to create 3D character data capable of demonstrating movements; and
A system for providing a 3D character sample generation service for OSMU (One Source Multi Use), characterized by including a 3D character simulation performing unit that performs a simulation on the above 3D character data.
제1 항에 있어서,
상기 2차원 이미지데이터 획득부는,
인물객체가 실제인물인 경우 카메라를 통해 촬영된 영상데이터를 상기 2차원 이미지데이터로서 획득하는 촬영영상데이터 획득부; 및
인물객체가 가상인물인 경우 가상인물에 대하여 디자인된 2차원 캐릭터이미지를 갖는 그래픽이미지데이터를 제공 받아 상기 2차원 이미지데이터로서 획득하는 그래픽이미지데이터 획득부를 포함하는 것을 특징으로 하는 OSMU(One Source Multi Use)를 위한 3차원 캐릭터 샘플 생성 서비스 제공 시스템.
In the first paragraph,
The above two-dimensional image data acquisition unit is,
When the person object is a real person, a shooting image data acquisition unit that acquires the image data captured by the camera as the two-dimensional image data; and
A system for providing a 3D character sample generation service for OSMU (One Source Multi Use), characterized in that it includes a graphic image data acquisition unit that receives graphic image data having a 2D character image designed for a virtual character when the character object is a virtual character and acquires the graphic image data as the 2D image data.
제1 항에 있어서,
상기 3차원 캐릭터데이터 생성부는,
상기 2차원 이미지데이터에 포함된 인물객체의 얼굴부분만 추출하는 이미지 전처리를 수행하는 이미지 전처리부;
이미지 전처리가 수행된 인물객체의 얼굴부분에 대한 특징점을 검출하는 특징점 검출부;
상기 특징점 추출부에서 추출된 특징점에 기반하여 3차원 모델링 작업 및 리터칭 작업을 수행하여 3차원 캐릭터 얼굴을 생성하는 3차원 캐릭터 얼굴 생성부;
3차원 캐릭터에 적용될 3차원 바디 타입을 설정하는 3차원 캐릭터 바디 설정부;
상기 3차원 캐릭터 얼굴 및 상기 3차원 바디를 결합한 3차원 캐릭터 모델에 의상 타입을 설정하는 3차원 캐릭터 의상 설정부;
의상이 설정된 3차원 캐릭터 모델에 대한 카메라 샷을 설정하는 3차원 캐릭터 카메라 샷 설정부; 및
미리 마련된 다수의 동작 컨셉트 중 적어도 하나의 동작 컨셉트를 선택하고, 선택된 동작 컨셉트에 따른 모션데이터를 카메라 샷이 설정된 3차원 캐릭터 모델에 적용하여 동작 시연이 가능한 상기 3차원 캐릭터데이터를 완성하는 3차원 캐릭터 동작 설정부를 포함하는 것을 특징으로 하는 OSMU(One Source Multi Use)를 위한 3차원 캐릭터 샘플 생성 서비스 제공 시스템.
In the first paragraph,
The above 3D character data generation unit,
An image preprocessing unit that performs image preprocessing to extract only the face portion of a person object included in the above two-dimensional image data;
A feature point detection unit that detects feature points on the face of a human object for which image preprocessing has been performed;
A 3D character face generation unit that generates a 3D character face by performing 3D modeling work and retouching work based on the feature points extracted from the above feature point extraction unit;
3D character body setting section that sets the 3D body type to be applied to the 3D character;
A 3D character costume setting unit that sets a costume type for a 3D character model that combines the 3D character face and the 3D body;
A 3D character camera shot setting unit for setting a camera shot for a 3D character model with a set costume; and
A system for providing a 3D character sample generation service for OSMU (One Source Multi Use), characterized by including a 3D character motion setting unit for selecting at least one motion concept from a plurality of pre-prepared motion concepts and applying motion data according to the selected motion concept to a 3D character model with a camera shot set to complete the 3D character data capable of demonstrating motions.
제1 항에 있어서,
상기 3차원 캐릭터 시뮬레이션 수행부는,
가상공간 내에서 상기 3차원 캐릭터데이터에 포함된 3차원 캐릭터 모델이 미리 설정된 동작을 시연하는 시뮬레이션을 수행하는 가상공간 시뮬레이션 수행부; 및
카메라를 통해 표출되는 촬영화면 속 물리객체 상에서 상기 3차원 캐릭터데이터에 포함된 3차원 캐릭터 모델이 중첩 표시되어 미리 설정된 동작을 시연하는 시뮬레이션을 수행하는 증강현실 시뮬레이션 수행부를 포함하는 것을 특징으로 하는 OSMU(One Source Multi Use)를 위한 3차원 캐릭터 샘플 생성 서비스 제공 시스템.
In the first paragraph,
The above 3D character simulation execution unit is,
A virtual space simulation execution unit that performs a simulation in which a 3D character model included in the 3D character data demonstrates preset movements within a virtual space; and
A system for providing a 3D character sample generation service for OSMU (One Source Multi Use), characterized by including an augmented reality simulation performing unit that performs a simulation in which a 3D character model included in the 3D character data is superimposed on a physical object in a shooting screen displayed through a camera and demonstrates a preset movement.
KR1020230078102A 2023-04-06 2023-06-19 System for providing service for generating 3d character sample for one source multi use KR20240149763A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20230045369 2023-04-06
KR1020230045369 2023-04-06

Publications (1)

Publication Number Publication Date
KR20240149763A true KR20240149763A (en) 2024-10-15

Family

ID=93114822

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230078102A KR20240149763A (en) 2023-04-06 2023-06-19 System for providing service for generating 3d character sample for one source multi use

Country Status (1)

Country Link
KR (1) KR20240149763A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101165017B1 (en) 2011-10-31 2012-07-13 (주) 어펙트로닉스 3d avatar creating system and method of controlling the same
KR102498056B1 (en) 2022-02-18 2023-02-10 주식회사 공간과 상상 Metahuman generation system and method in metaverse
KR20230060432A (en) 2021-10-27 2023-05-04 김상철 Metaverse service server to provide a metaverse service that recommends 3d avatars that can be used on the metaverse in a customized way and the operating method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101165017B1 (en) 2011-10-31 2012-07-13 (주) 어펙트로닉스 3d avatar creating system and method of controlling the same
KR20230060432A (en) 2021-10-27 2023-05-04 김상철 Metaverse service server to provide a metaverse service that recommends 3d avatars that can be used on the metaverse in a customized way and the operating method thereof
KR102498056B1 (en) 2022-02-18 2023-02-10 주식회사 공간과 상상 Metahuman generation system and method in metaverse

Similar Documents

Publication Publication Date Title
US10860838B1 (en) Universal facial expression translation and character rendering system
Cao et al. Real-time facial animation with image-based dynamic avatars
CN111968207B (en) Animation generation method, device, system and storage medium
CN105513125B (en) Composograph generating means and method, the recording medium for executing this method
Ersotelos et al. Building highly realistic facial modeling and animation: a survey
KR101363691B1 (en) Makeup simulation system, makeup simulation device, makeup simulation method, and makeup simulation program
WO2016177290A1 (en) Method and system for generating and using expression for virtual image created through free combination
CN111771231A (en) Matching mesh for avatars
US9196074B1 (en) Refining facial animation models
JP2019510297A (en) Virtual try-on to the user's true human body model
US9202312B1 (en) Hair simulation method
CN108876886B (en) Image processing method and device and computer equipment
JP2000113217A (en) Making method of 3d face model from starting facial image
KR20090098798A (en) Method and device for virtual simulation of a sequence of video images
KR20130032620A (en) Method and apparatus for providing moving picture using 3d user avatar
US10964083B1 (en) Facial animation models
JP2013190974A (en) Information processing apparatus, information processing method, and program
JP2011159329A (en) Automatic 3d modeling system and method
JP2009039523A (en) Terminal device to be applied for makeup simulation
Maraffi Maya character creation: modeling and animation controls
Lin et al. eHeritage of shadow puppetry: creation and manipulation
Sénécal et al. Modelling life through time: cultural heritage case studies
KR20240149763A (en) System for providing service for generating 3d character sample for one source multi use
KR101780496B1 (en) Method for producing 3D digital actor image based on character modelling by computer graphic tool
Amirkhanov et al. WithTeeth: Denture Preview in Augmented Reality.

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20230619

PA0201 Request for examination

Patent event code: PA02011R01I

Patent event date: 20230619

Comment text: Patent Application

PG1501 Laying open of application