[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101902553B1 - Terminal for providing storytelling contents tool and Method for providing storytelling - Google Patents

Terminal for providing storytelling contents tool and Method for providing storytelling Download PDF

Info

Publication number
KR101902553B1
KR101902553B1 KR1020170114563A KR20170114563A KR101902553B1 KR 101902553 B1 KR101902553 B1 KR 101902553B1 KR 1020170114563 A KR1020170114563 A KR 1020170114563A KR 20170114563 A KR20170114563 A KR 20170114563A KR 101902553 B1 KR101902553 B1 KR 101902553B1
Authority
KR
South Korea
Prior art keywords
face
user
value
facial
model
Prior art date
Application number
KR1020170114563A
Other languages
Korean (ko)
Inventor
박병화
Original Assignee
박병화
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박병화 filed Critical 박병화
Priority to KR1020170114563A priority Critical patent/KR101902553B1/en
Application granted granted Critical
Publication of KR101902553B1 publication Critical patent/KR101902553B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Computer Security & Cryptography (AREA)
  • Economics (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

According to an aspect of the present invention, there is provided a terminal for providing a storytelling content tool, the terminal which includes a storytelling content storage unit having storytelling content; a user face image generation unit for generating a user face image by photographing a face of a user enjoying the storytelling content; a face reference value storage model in which a face model composed of a face identity value obtained by representing a face shape of each reference face as successive numerical values and a face expression value obtained by representing a face expression of each reference face as successive numerical values is stored; a user face analysis unit for estimating a face identity value and a face expression value matching with the user face image generated through the user face image generation unit from the face reference value storage model to determine a user face identity value and a user face expression value; and a storytelling content progressing unit for processing the user face image by reflecting the user face identity value and the user face expression value determined through the user face analysis unit to output the user face image as the storytelling content.

Description

스토리텔링 콘텐츠 툴 제공 단말기 및 스토리텔링 콘텐츠 제공 방법{Terminal for providing storytelling contents tool and Method for providing storytelling}Technical Field [0001] The present invention relates to a terminal providing storytelling contents tool and method for providing storytelling contents,

본 발명은 스토리텔링 콘텐츠 툴 제공 단말기 및 스토리텔링 콘텐츠 제공 방법으로서, 본 발명은 사용자(어린아이)가 모바일 디바이스 상에서 (아동용)콘텐츠를 감상할 때, 사용자가 콘텐츠의 주인공이 되어 콘텐츠에 등장하고, 시스템이 사용자의 콘텐츠 사용 정보를 분석하여 콘텐츠를 추천 및 진행해 나갈 수 있게 해주는 시스템에 관한 것이다.The present invention relates to a storytelling content tool providing terminal and a storytelling content providing method. The present invention relates to a storytelling content tool providing terminal and a storytelling content providing method, in which a user (child) And a system that allows the system to analyze user's content usage information and recommend and proceed with the content.

많은 사람들이 트릭아트, 코스플레이, 얼굴 변환·수정 어플리케이션 등을 사용하면서 미디어 콘텐츠의 주인공이 되고자 한다. 이러한 행위는 사람들에게 즐거움을 주며 사용자가 콘텐츠에 더욱 몰입 경험을 할 수 있도록 해준다.Many people want to be the protagonists of media content while using trick art, course play, face conversion and modification applications. This behavior gives people pleasure and allows users to experience more immersive content.

특히 어린 아이들은 어린이 동화책, 어린이 동영상을 즐겨 시청하며 그 안에 등장하는 인물들을 많이 따라 한다.In particular, young children enjoy children's storybooks, children's videos, and follow a lot of characters in them.

사용자에게 더욱 실감나는 경험을 제공해주기 위해서 더욱 정확한 사용자 캡쳐 알고리즘과 그에 따른 실감나는 영상 표현 기술이 요구된다. 또한 사용자의 사용 정보에 기반한 개인 특성화된(personalized) 콘텐츠 진행 전략도 필요하다.In order to provide a more realistic experience to users, more accurate user capture algorithms and corresponding realistic image presentation technologies are required. There is also a need for a personalized content delivery strategy based on user usage information.

종래의 기술 및 시스템은 이런 사용자들의 필요(needs)를 충족하기 위해 거울을 이용한 종이 동화책, 사용자가 제출한 얼굴 사진을 기반으로 한 얼굴 동화 영상 제작 후 배송, 사용자가 입력한 얼굴 사진을 기반으로 한 간단한 영상 콘텐츠 실시간 생성, 사용자의 얼굴 영상을 실시간으로 촬영 및 분석하여 증강데이터를 입혀 편집하는 시스템 등을 제공하고 있다.Conventional technologies and systems are based on a paper assortment using mirrors, a post-production of a facial animation image based on a user-submitted facial photograph, and a facial photograph input by the user to satisfy the needs of such users It provides simple real-time image content creation, system that captures and analyzes face images of users in real time, and adds and edits the enhancement data.

이러한 경우, 다음과 같은 사용자의 필요를 충족하지 못하는 문제가 있다.In such a case, there is a problem that the user does not meet the following requirements.

거울을 이용한 종이 동화책의 경우 동화책이 나타내는 콘텐츠만을 사용자가 사용 가능하다. 사용자가 제출한 얼굴 사진을 기반으로 한 얼굴 동화 영상 제작 및 배송 시스템은 사용자가 결과 영상을 바로 감상 및 시청하지 못한다. 사용자가 입력한 얼굴 사진을 기반으로 한 간단한 영상 콘텐츠 실시간 생성 시스템의 경우 기존의 시스템은 현재 사용자의 표정과 감정까지 실시간으로 이입하지 않고 정해진 틀에 맞춰서 얼굴 정보가 변형되게 한다. 사용자의 얼굴 영상을 실시간으로 촬영 및 분석해서 증강데이터를 입혀 편집하는 시스템의 경우 얼굴정보에다가 증강데이터를 입히기 때문에 자연스럽기 쉽지만, 얼굴정보를 토대로 단기적인 즐거움을 제공하고 이야기 기반의 장기적인 즐거움을 제공하지 못한다.In the case of a paper assortment using a mirror, only the contents indicated by the assortment can be used by the user. The user does not directly view and view the result image, because the face animation image production and delivery system based on the face photographs submitted by the user. In the case of a simple image content real-time creation system based on a user's input face image, the existing system allows the face information to be modified according to a predetermined frame without real-time transfer to the facial expression and emotion of the current user. In the system for photographing and analyzing the user's face image in real time and adding and editing the augmentation data, it is natural that the augmentation data is applied to the face information, but it provides short-term enjoyment based on the face information and does not provide long- .

무엇보다, 기존의 기술들은 사용자의 얼굴 정보를 콘텐츠에 자연스럽게 합성을 하지 못하여 부자연스럽다. 또한 단기적인 즐거움을 주는 것에서 끝나며 장기적인 사용자와의 상호작용(interaction)을 통한 교육용 시스템으로써 사용되지 못하고 있다. 또한 기존의 기술은 사용자의 얼굴 정보를 시스템이 스스로 인식해서 자연스럽게 동화책에다가 이입하는 정확한 방법론을 제시하지 못하고, 매뉴얼(manual)로 지정된 얼굴 특징점을 기반으로 얼굴 이미지를 추출해서 동화책에 붙여 넣는다.Above all, existing technologies are unnatural because they can not naturally synthesize user's face information into content. It also ends with short-term enjoyment and is not being used as an educational system through interaction with long-term users. In addition, the existing technology does not provide an accurate methodology in which the system recognizes the user's facial information and naturally inserts it into a storybook, and extracts the facial image based on the manual facial feature point and pastes it into the storybook.

한국공개특허 10-2015-0011651호Korean Patent Publication No. 10-2015-0011651

본 발명의 기술적 과제는 자연스럽게 사용자의 얼굴 정보 및 사용자의 이름 정보를 스토리텔링 콘텐츠에 이입하여 사용자가 실감나게 주인공이 된 것과 같은 느낌을 제공하는 것에 있다. 본 발명이 해결하고자 하는 다른 과제는 사용자가 스토리텔링 콘텐츠에서 경험한 정보를 분석하여 사용자에게 맞는 교육 콘텐츠를 추천 및 진행해 나갈수 있는 시스템을 제공하는 것에 있다.The technical problem of the present invention is to naturally transmit user's face information and user's name information to storytelling contents to provide a feeling that the user becomes real and feel like a main character. Another problem to be solved by the present invention is to provide a system for analyzing information experienced by a user in storytelling contents and recommending and proceeding educational contents suitable for a user.

본 발명의 실시 형태는 스토리텔링에서 사용되는 스토리텔링 콘텐츠를 구비한 스토리텔링 콘텐츠 저장부; 스토리텔링 콘텐츠를 즐기는 사용자의 얼굴을 촬영하여 사용자 얼굴 영상을 생성하는 사용자 얼굴 영상 생성부; 각 기준 얼굴의 얼굴 형상을 연속된 수치값으로 표현한 얼굴 정체성값과, 각 기준 얼굴의 얼굴 표정을 연속된 수치값으로 표현한 얼굴 표정값이 요소화된 얼굴 모델이 저장되어 있는 얼굴 기준값 저장 모델; 상기 사용자 얼굴 영상 생성부를 통해 생성되는 사용자 얼굴 영상과 매칭되는 얼굴 정체성값과 얼굴 표정값을 상기 얼굴 기준값 저장 모델을 기반으로 추정하여 사용자 얼굴 정체성값과 사용자 얼굴 표정값으로 결정하는 사용자 얼굴 분석부; 및 상기 사용자 얼굴 분석부를 통해 결정되는 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 반영하여 사용자 얼굴 영상을 가공해 스토리텔링 콘텐츠로서 출력하는 스토리텔링 콘텐츠 진행부;를 포함할 수 있다.An embodiment of the present invention relates to a storytelling content storage unit having a storytelling content used in storytelling; A user facial image generating unit for capturing a face of a user enjoying the storytelling contents to generate a user facial image; A face reference value storage model in which a face identity representing a face shape of each reference face is represented by successive numerical values and a face expression value representing a facial expression value expressed by successive numerical values of each reference face is stored; A user facial analysis unit for estimating a face identity value and a facial expression value matching with a user facial image generated through the user facial image generation unit based on the face reference value storage model and determining the user facial identity value and the user facial expression value; And a storytelling content advancing unit for processing the user's face image by reflecting the user's face identity value and the user's facial expression value determined through the user's facial analysis unit and outputting the user's facial image as a storytelling content.

상기 스토리텔링 콘텐츠 진행부는, 상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 상기 스토리텔링 콘텐츠의 얼굴 모델에 과장 및 변형시켜 반영하여 출력할 수 있다.The storytelling content progressing unit may exaggerate and transform the user's face identity value and the user's facial expression value to the face model of the storytelling content, and output the same.

상기 사용자 얼굴 분석부는, 상기 사용자 얼굴 영상 생성부를 통해 생성되는 사용자 얼굴 영상의 픽셀값을 이용하여 사용자 얼굴 피부 색상 분포를 파악하며, 상기 스토리텔링 콘텐츠 진행부에서 출력중인 스토리텔링 콘텐츠의 색상 분포와 스타일에 맞게 분석된 사용자 얼굴 피부 색상 분포를 변형하며, 상기 스토리텔링 콘텐츠 진행부는, 상기 3D 얼굴 모델에 사용자 얼굴 피부 색상 분포를 또는 콘텐츠와 어울리게 변형된 사용자 얼굴 피부 색상 분포를 반영하여 출력할 수 있다.Wherein the user facial analysis unit grasps a face skin color distribution of a user using a pixel value of a user facial image generated through the user facial image generation unit and determines a color distribution of the storytelling contents output from the storytelling content progress unit, And the storytelling content progress unit may output the user's facial skin color distribution to the 3D facial model or the user's facial skin color distribution corresponding to the content to reflect the user facial skin color distribution.

상기 스토리텔링 콘텐츠 진행부는, 사용자의 신상정보에 맞추어서 자막 콘텐츠를 수정하여 출력할 수 있다.The storytelling contents progress section may modify and output the subtitle contents in accordance with the user's personal information.

상기 스토리텔링 콘텐츠 툴 제공 단말기는, 스토리텔링 콘텐츠를 즐기는 사용자가 아닌 다른 사람의 얼굴 정보를 스토리텔링 콘텐츠 서버로부터 수신하여 타인 얼굴 정보로서 저장하는 타인 얼굴 정보 모델;을 포함하며, 상기 스토리텔링 콘텐츠 진행부는, 상기 타인 얼굴 정보가 반영된 타인 3D 얼굴 모델을 상기 사용자의 3D 얼굴 모델과 함께 스토리텔링 콘텐츠에 출력할 수 있다.The storytelling contents tool providing terminal includes a face information model for a person who receives face information of a person other than the user who enjoys the storytelling contents from the storytelling contents server and stores the face information as the face information of the other person, The controller may output the tethered 3D face model reflecting the tether face information together with the 3D face model of the user to the storytelling contents.

상기 스토리텔링 콘텐츠 툴 제공 단말기는, 출력된 스토리텔링 콘텐츠를 프린팅 가능한 다큐먼트 파일로 변환하는 변환출력부를 더 포함할 수 있다.The storytelling contents tool providing terminal may further include a conversion output unit for converting the output storytelling contents into a printable document file.

또한, 본 발명의 실시 형태는, 스토리텔링 콘텐츠를 즐기는 사용자의 얼굴을 촬영하여 사용자 얼굴 영상을 생성하는 사용자 얼굴 영상 생성 과정; 촬영되는 사용자 얼굴 영상을 이용하여, 사용자 얼굴 형상을 연속된 수치값으로 표현한 사용자 얼굴 정체성값과, 사용자 얼굴 표정을 연속된 수치값으로 표현한 사용자 얼굴 표정값을 결정하는 사용자 얼굴 정체성값 및 표정값 결정 과정; 및 상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 반영하여 상기 스토리텔링 콘텐츠에 출력하는 스토리텔링 콘텐츠 출력 과정;을 포함할 수 있다.Further, an embodiment of the present invention is a user face image generating process for capturing a face of a user enjoying a storytelling content to generate a user face image; Determining the user's face identity value and the facial expression value for determining the user's facial expression value representing the user's facial expression as a continuous numerical value by using the captured user's facial image, process; And outputting the user's face identity value and the user's facial expression value to the storytelling contents to output the storytelling contents.

각 기준 얼굴의 얼굴 표정을 연속된 수치값으로 표현한 얼굴 표정값과 각 기준 얼굴의 얼굴 형상을 연속된 수치값으로 표현한 얼굴 정체성값이 기준 얼굴별로 할당되어 있는 얼굴 기준값 저장 모델이 구비되어 있으며,There is provided a face reference value storage model in which a face expression value expressed by successive numerical values of each facial expression of each reference face and a face identity value representing a face shape of each reference face by continuous numerical values are assigned for each reference face,

상기 얼굴 기준값 저장 모델은, 얼굴 형상별로 그리고 표정별로 촬영된 다양한 사람들의 얼굴 영상 데이터로부터 PCA(Principal Component Analysis), SVD(Singular Value Decomposition), HOSVD(High Order Singular Value Decomposition) 중 적어도 하나를 포함하는 데이터 분석 방법을 통해 데이터의 얼굴 정보를 얼굴 정체성값과 얼굴 표정값의 연속된 수치값으로 요소화시켜 구축될 수 있다.The face reference value storage model includes at least one of Principal Component Analysis (PCA), Singular Value Decomposition (SVD), and High Order Singular Value Decomposition (HOSVD) from face image data of various people photographed for each face shape and facial expression The facial information of the data can be constructed by factoring the facial identity value and the facial expression value into consecutive numerical values through a data analysis method.

상기 스토리텔링 콘텐츠 출력 과정은, 상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 3D 얼굴 모델에 반영하거나, 또는 상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 2D 얼굴 모델에 반영하여 상기 스토리텔링 콘텐츠에 출력할 수 있다.The storytelling content output process may reflect the user's face identity value and the user's facial expression value in the 3D facial model or reflect the user facial identity value and the user facial expression value in the 2D facial model to output to the storytelling content can do.

상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 상기 3D 얼굴 모델에 반영하는 것은, V는 3D 얼굴 모델, Cr은 상기 얼굴 기준값 저장 모델로부터 학습한 얼굴 특징 분포 핵심 구조 모델, wid는 사용자 얼굴 정체성값, wexp는 사용자 얼굴 표정값이라 할 때, V=g(C,wid,wexp) 함수를 이용하여 반영할 수 있다.The user facial identity value and the user facial expression value are reflected in the 3D facial model, where V is a 3D facial model, C r is a facial feature distribution core structure model learned from the facial reference value storage model, w id is a user facial identity Value, and w exp is the user facial expression value, it can be reflected by using the function V = g (C, w id , w exp ).

상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 상기 3D 얼굴 모델에 반영하는 것은, 얼굴 정체성값(wid)와 얼굴 표정값(wexp)의 특성값을 강조하여 3D 얼굴 모델에 반영할 수 있다.The reflection of the user's face identity value and the user's facial expression value on the 3D facial model can be reflected on the 3D facial model by emphasizing the characteristic values of the facial identity value (w id ) and the facial expression value (w exp ).

상기 스토리텔링 콘텐츠 출력 과정은, 상기 V=g(C,wid,wexp) 함수가 반영된 3D 얼굴 모델(V)을 화면상에 출력할 경우, F는 3D 얼굴 모델이 2차원 화면에 투영되어 출력되는 모델, s는 얼굴의 크기를 조정하는 얼굴 크기 정보, MP(f)는 3D 위치를 화면상의 2D 위치로 매핑하는 카메라 함수, R은 얼굴을 회전시키는 얼굴 회전 정보, T는 얼굴의 위치를 이동시키는 얼굴 위치 정보라 할 때,

Figure 112017087055861-pat00001
에 의해 산출되는 모델을 화면에 출력할 수 있다.When outputting the 3D facial model (V) reflecting the function V = g (C, w id , w exp ) on the screen, the 3D facial model is projected on the two-dimensional screen (F) is a camera function that maps the 3D position to the 2D position on the screen, R is face rotation information for rotating the face, T is the position of the face When the face position information is moved,
Figure 112017087055861-pat00001
Can be output to the screen.

상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 2D 얼굴 모델에 반영하는 것은, 2차원으로 투영된 얼굴 기준값 저장 모델에 사용자 얼굴 영상에서 분석된 얼굴 정체성값과 얼굴 표정값을 반영할 수 있다.Reflecting the user facial identity value and the user facial expression value into the 2D facial model, the facial identity value and the facial expression value analyzed in the user facial image can be reflected in the two-dimensionally projected face reference value storage model.

상기 방법은, 사용자 얼굴 정체성값 및 표정값 결정 과정이 있은 후 스토리텔링 콘텐츠 출력 과정이 있기 이전에, 얼굴 정체성값 및 표정값 결정 과정으로부터 유추한 사용자의 얼굴정보의 특성을 과장하거나 사용자 얼굴 정보의 피부 정보를 포함한 질감정보를 스토리텔링 콘텐츠의 질감과 어울리게 재가공하는 사용자 얼굴 정보 재가공 과정;을 더 포함할 수 있다. The method may further comprise the step of exaggerating the characteristics of the user's facial information derived from the facial identity value and the facial expression value determination process before the storytelling content output process after the process of determining the user's facial identity value and facial expression value, And a step of re-processing the user's face information that re-processes the texture information including the skin information to match the texture of the story telling contents.

상기 방법은, 출력된 스토리텔링 콘텐츠를 프린팅 가능한 다큐먼트 파일로 변환하는 스코리텔링 콘텐츠 변환 과정을 더 포함할 수 있다.The method may further include a scorer content conversion step of converting the output storytelling content into a printable document file.

상기 사용자 얼굴 영상에서 사용자 얼굴 정체성값과 얼굴 표정값을 결정하는 과정은, m은 얼굴 정체성값(wid), 얼굴 표정값(wexp), 얼굴 크기 정보에서의 크기값(s), 얼굴 위치 정보에서의 병진값(tx,ty), 얼굴 회전 정보에서의 회전값(rx,ry,z), 카메라 초점거리(f)를 포함하는 구성요소의 집합이고, F는 m의 요소로부터 생성되는 2차원 영상에 투영된 모델, I는 입력 영상, V는 얼굴 정체성값(wid)과 얼굴 표정값(wexp)으로 요소화된 3D 얼굴 모델, x2d와 x3d는 각각 입력된 모델에서 기정의된 특징점의 위치를 추출하는 함수, A는 3D 얼굴 모델의 텍스쳐(texture) 학습 모델,

Figure 112017087055861-pat00002
는 입력 정보로부터 구별되는 특징(feature)를 추출하는 특징 추출 연산자라고 할 때,
Figure 112017087055861-pat00003
에 의해 얼굴 정체성값과 얼굴 표정값이 결정되는 것을 특징으로 하는 스토리텔링 콘텐츠 제공 방법.Wherein the step of determining the user's face identity value and the facial expression value in the user facial image comprises the steps of: determining a facial identity value (w id ), a facial expression value (w exp ), a size value (s) rotation of the translational value (t x, t y), the face rotation information of the information (r x, r y, z ), and the set of components including a camera focal length (f), f is a factor of m I is an input image, V is a 3D face model that is elementized by a facial identity value (w id ) and a facial expression value (w exp ), and x 2d and x 3d are input to a two- A function that extracts the location of the feature points in the model, A is a texture learning model of the 3D face model,
Figure 112017087055861-pat00002
Is a feature extraction operator that extracts features distinguished from input information,
Figure 112017087055861-pat00003
Wherein the face identification value and the facial expression value are determined by the face identification value and the facial expression value.

본 발명은 실시간으로 사용자의 얼굴을 분석하여 얼굴을 재가공 하여 스토리텔링 콘텐츠에 자연스럽게 이입하여 사용자가 주인공인 것처럼 느끼게 하는 콘텐츠를 제공할 수 있다. 또한, 본 발명은 실시간으로 사용자의 표정 및 감정을 분석하여 사용자의 감정을 스토리텔링 콘텐츠에 함께 이입해서 사용자가 더욱 실감나게 스토리텔링 콘텐츠를 경험할 수 있는 기능을 제공한다. 또한, 본 발명은 사용자의 스토리텔링 콘텐츠를 통한 학습 수준을 자동으로 분석을 하여서 사용자에게 학습 수준에 맞는 콘텐츠를 추천해주어 사용자가 더 편하게 콘텐츠를 즐길 수 있는 기능을 제공한다.The present invention can analyze the face of the user in real time and re-process the face to naturally enter the storytelling contents to provide contents that make the user feel like the main character. In addition, the present invention analyzes a user's facial expressions and emotions in real time, and incorporates emotions of the user into the storytelling contents, thereby providing a function of allowing the user to experience the storytelling contents more realistically. In addition, the present invention provides a function of automatically analyzing a learning level through a user's storytelling content, recommending content suitable for a learning level to a user, and allowing a user to enjoy contents more conveniently.

도 1은 본 발명의 실시예에 따른 스토리텔링 콘텐츠 툴 제공 단말기의 구성 블록도이다.
도 2는 본 발명의 실시예에 따라 얼굴 기준값 저장 모델에 저장된 얼굴 정체성과 얼굴 표정을 도시한 그림이다.
도 3은 본 발명의 실시예에 따라 사용자의 3D 얼굴 모델의 반영 전 및 반영 후의 스토리텔링 콘텐츠를 도시한 그림이다.
도 4는 본 발명의 실시예에 따라 스토리텔링 콘텐츠 서버가 마련된 모습을 도시한 그림이다.
도 5는 본 발명의 실시예에 따른 스토리텔링 콘텐츠 제공 과정을 도시한 플로차트이다.
도 6은 본 발명의 실시예에 따라 사용자 얼굴 영상에서 사용자 얼굴 정체값과 사용자 얼굴 특성값이 반영된 3D 얼굴 모델의 모습을 도시한 그림이다.
도 7은 본 발명의 실시예에 따라 3D 얼굴 모델이 회전된 모습을 도시한 그림이다.
도 8은 본 발명의 실시예에 따라 분석된 사용자의 얼굴 모델을 콘텐츠의 색상과 스타일 등 환경에 어울리게 변형하여 콘텐츠 상에 투영하거나 삽입한 것을 예시한 그림이다.
도 9는 얼굴 기준값 저장 모델과 3D 얼굴 모델의 회전 또는 변형을 예시한 도면이다.
도 10은 본 발명의 실시예에 따라 동화화된 3차원 캐릭터 얼굴을 생성하는 것을 예시한 그림이다.
1 is a configuration block diagram of a storytelling contents tool providing terminal according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating facial identities and facial expressions stored in a face reference value storage model according to an embodiment of the present invention. FIG.
3 is a diagram illustrating storytelling contents before and after reflection of a user's 3D face model according to an embodiment of the present invention.
FIG. 4 is a diagram illustrating a storytelling content server according to an embodiment of the present invention.
5 is a flowchart illustrating a story telling contents providing process according to an embodiment of the present invention.
FIG. 6 is a view showing a 3D face model in which a face value of a user and a user's face characteristic value are reflected in a user face image according to an embodiment of the present invention.
7 is a view illustrating a 3D face model rotated according to an embodiment of the present invention.
8 is a diagram illustrating an example of projecting or inserting a user's facial model analyzed according to an embodiment of the present invention on a content by modifying the facial model of the user according to the environment such as color and style of the content.
9 is a diagram illustrating rotation or deformation of a face reference value storage model and a 3D face model.
FIG. 10 is a diagram illustrating creation of a three-dimensional character face that has been animated according to an embodiment of the present invention.

이하, 본 발명의 장점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은, 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것으로, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 또한, 본 발명을 설명함에 있어 관련된 공지 기술 등이 본 발명의 요지를 흐리게 할 수 있다고 판단되는 경우 그에 관한 자세한 설명은 생략하기로 한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and how to achieve them, will be apparent from the following detailed description of embodiments thereof taken in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the exemplary embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete and will fully convey the concept of the invention to those skilled in the art. And the present invention is only defined by the scope of the claims. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

도 1은 본 발명의 실시예에 따른 스토리텔링 콘텐츠 툴 제공 단말기의 구성 블록도이며, 도 2는 본 발명의 실시예에 따라 얼굴 기준값 저장 모델에 저장된 얼굴 정체성과 얼굴 표정을 도시한 그림이며, 도 3은 본 발명의 실시예에 따라 사용자의 3D 얼굴 모델의 반영 전 및 반영 후의 스토리텔링 콘텐츠를 도시한 그림이며, 도 4는 본 발명의 실시예에 따라 스토리텔링 콘텐츠 서버가 마련된 모습을 도시한 그림이다.FIG. 1 is a block diagram of a terminal for providing a storytelling contents tool according to an embodiment of the present invention. FIG. 2 is a diagram illustrating face identities and facial expressions stored in a face reference value storage model according to an embodiment of the present invention. 3 is a view showing a storytelling content before and after reflection of a 3D face model of a user according to an embodiment of the present invention, and FIG. 4 is a diagram illustrating a state in which a storytelling content server is provided according to an embodiment of the present invention to be.

이하, 스토리텔링 콘텐츠 툴 제공 단말기(100)라 함은 스토리텔링 콘텐츠가 출력되는 단말기를 말하는 것으로서, 스마트폰(smart phone)을 예로 들어 설명하나, 스마트폰만 아니라 카메라가 내장된 휴대폰뿐만 아니라 휴대용 멀티미디어 플레이어(PMP, Portable Multimedia Player), 개인 휴대용 정보 단말기(PDA, Personal Digital Assistant)나 노트북 등에서도 시스템 내부에 얼굴을 인식할 수 있는 카메라나 그 밖에 얼굴 표정을 인식할 수 있는 센서가 내장되어 있다면 이용 가능하다.물론, 본 발명이 적용 가능한 단말기는 상술한 종류에 한정되지 않고, 연산 수단이 마련된 단말기를 모두 포함할 수 있음은 당연하다.Hereinafter, the storytelling contents tool providing terminal 100 refers to a terminal for outputting storytelling contents. The storytelling contents tool providing terminal 100 will be described as an example of a smart phone. In addition to a smart phone, If a camera capable of recognizing a face in the system or a sensor capable of recognizing facial expressions is incorporated in a player (PMP, Portable Multimedia Player), a personal digital assistant (PDA, Personal Digital Assistant) Of course, it is needless to say that the terminal to which the present invention is applicable is not limited to the above-described kind, but may include all the terminals provided with the calculation means.

참고로, 스토리텔링(story telling)이라 함은 '스토리(story) + 텔링(telling)'의 합성어로서 말 그대로 상대방에게 알리고자 하는 바를 재미있고 생생한 이야기로 설득력있게 이야기하는 것을 말한다. 따라서 스토리텔링 콘텐츠는 스토리텔링 형태로서 출력되는 영상, 그림, 애니메이션 등의 다양한 형태의 콘텐츠가 포함될 수 있다.For reference, story telling is a compound word of "story + telling", which literally means talking about persuasively what you want to tell the other person with interesting and vivid stories. Accordingly, the storytelling contents may include various types of contents such as images, pictures, and animations output as a storytelling form.

본 발명의 스토리텔링 콘텐츠 툴 제공 단말기(100)는, 실시간으로 사용자의 얼굴을 분석하여 얼굴을 재가공 하여 스토리텔링 콘텐츠에 자연스럽게 이입하여 사용자가 주인공인 것처럼 느끼게 하는 콘텐츠를 제공한다.The storytelling content tool providing terminal 100 of the present invention analyzes the user's face in real time and reprocesses the face to naturally enter the storytelling contents to provide a content that makes the user feel as if they are the main character.

이를 위하여 본 발명의 스토리텔링 콘텐츠 툴 제공 단말기(100)는, 스토리텔링 콘텐츠를 제공해주는 툴로서 도 1에 도시한 바와 같이, 입력부(160), 표시부(170), 스토리텔링 콘텐츠 저장부(120), 사용자 얼굴 영상 생성부(130), 얼굴 기준값 저장 모델(110), 사용자 얼굴 분석부(140), 및 스토리텔링 콘텐츠 진행부(150) 중의 적어도 하나를 포함할 수 있다. 이밖에 타인 얼굴 정보 모델(180) 및 변환출력부(190) 중의 적어도 하나를 추가로 더 구비할 수 있다.1, a storytelling contents tool providing terminal 100 according to the present invention includes an input unit 160, a display unit 170, a storytelling contents storage unit 120, A user facial image generation unit 130, a face reference value storage model 110, a user facial analysis unit 140, and a storytelling content progress unit 150. In addition, at least one of the other person's face information model 180 and the conversion output unit 190 may be additionally provided.

입력부(160)는 스토리텔링 출력시에 사용자의 선택 이벤트를 입력받는 모듈이다. 페이지 선택, 페이지 이전 등의 다양한 선택 이벤트를 사용자로부터 입력받을 수 있다. 또한 사용자에게 추천해줄 스토리텔링 콘텐츠를 사용자에게 제시함으로써 사용자의 선택을 유도할 수 있다. 또한 이름을 포함한 사용자의 신상 정보를 사용자에게 입력받을 수 있다. 또한 사용자가 아닌 다른 사람의 얼굴을 사전에 촬영하여 입력받을 수 있다.The input unit 160 is a module that receives a user's selection event at the time of storytelling output. Page selection, page transfer, and the like can be input from the user. Also, the user can be guided to the selection by presenting the user with a storytelling content to recommend to the user. Also, it is possible to input the user's personal information including the name to the user. In addition, it is possible to take a picture of a face of a person other than the user and input it in advance.

표시부(170)는 스토리텔링 콘텐츠가 영상으로 출력되는 표시창이다. 표시부(170)는 스토리텔링 콘텐츠 진행부(150)에서 재가공한 현재 사용자가 경험하고 있는 스토리텔링 콘텐츠와 자연스러운 사용자 얼굴 정보를 스토리텔링 콘텐츠에 자연스럽게 사용자에게 디스플레이함으로써 사용자가 스토리텔링 콘텐츠의 주인공으로 느끼게 할 수 있다.The display unit 170 is a display window on which the storytelling contents are outputted as video images. The display unit 170 naturally displays the storytelling content experienced by the current user and the natural user's face information reproduced in the storytelling content progressing unit 150 to the user in the storytelling content to make the user feel the main character of the storytelling content .

이러한 입력부(160)와 표시부(170)는, 터치스크린 패널의 단일 형태로 구현될 수 있다. 터치 스크린 패널은, 입력과 표시를 동시에 수행할 수 있는 터치 스크린 화면을 제공하여 단말기의 전면에 마련되어 작업 화면을 표시하는 표시창으로서, 스토리텔링 콘텐츠를 즐기는 사용자와의 소통을 위한 그래픽 유저 인터페이스(GUI;Graphic User Interface)를 표시한다.The input unit 160 and the display unit 170 may be implemented as a single type of touch screen panel. A touch screen panel is provided on a front surface of a terminal to provide a touch screen screen capable of simultaneously performing input and display, and includes a graphic user interface (GUI) for communicating with a user enjoying storytelling contents. Graphic User Interface).

스토리텔링 콘텐츠 저장부(120)는, 스토리텔링에서 사용되는 3D 얼굴 모델, 2D 얼굴 모델, 자막 콘텐츠가 포함된 스토리텔링 콘텐츠를 구비한 메모리이다. 2D 얼굴 모델은 스토리텔링에 사용되는 인물의 얼굴을 2차원 정보값으로 모델링한 캐릭터를 말하며, 3D 얼굴 모델은 스토리텔링에 사용되는 인물의 얼굴을 3차원 정보값으로 모델링한 캐릭터를 말한다. 또한 자막 콘텐츠라 함은 스토리텔링 콘텐츠를 출력시에 함께 제공되는 자막을 말한다.The storytelling content storage unit 120 is a memory having a 3D face model used in storytelling, a 2D face model, and a storytelling content including caption content. The 2D face model refers to a character modeling a face of a person used for story telling as a 2D information value, and the 3D face model is a character modeling a face of a person used for storytelling as a 3D information value. Also, the term " caption content " refers to a caption provided together with the output of the storytelling content.

사용자 얼굴 영상 생성부(130)는, 스토리텔링 콘텐츠를 즐기는 사용자의 얼굴을 촬영하여 사용자 얼굴 영상을 생성한다. 즉, 카메라나 다양한 얼굴 표정 인식을 위한 센서를 통하여 사용자에 대한 이미지를 캡쳐한 사용자 얼굴 영상을 사용자 얼굴 분석부(140)에 제공한다. 따라서 사용자 얼굴 영상은, 카메라를 비롯한 촬영 기기나 얼굴 인식 센서를 통해 사용자를 촬영한 내용의 파일 또는 사용자를 촬영한 영상을 의미할 수 있다. 사용자 얼굴 영상 생성부(130)는, 스토리텔링 콘텐츠 이입에 어울리는 얼굴 정보 재가공을 위해 적어도 한 프레임 이상의 사용자 얼굴 영상을 생성하여 사용자 얼굴 분석부(140)에 제공할 수 있으며, 이러한 사용자 얼굴 영상은 실시간으로 촬영되어 생성될 수도 있고, 기존에 촬영된 영상에서 얼굴 부분을 따로 추출하여 생성될 수도 있음은 물론이다.The user face image generating unit 130 photographs a face of a user enjoying the storytelling contents to generate a user face image. That is, the face image analyzing unit 140 provides a user face image that captures an image of a user through a camera or a sensor for recognizing various facial expressions. Accordingly, the user face image may refer to a photographing device including a camera, a file of a user's photographed through a face recognition sensor, or a photographed image of a user. The user face image generating unit 130 may generate at least one or more user face images for reprocessing the face information suitable for incorporating the storytelling contents and provide the user face images to the user face analyzing unit 140, Or may be generated by separately extracting the face portion from the previously captured image.

얼굴 기준값 저장 모델(110)은, 사용자 얼굴 영상을 분석할 때 사용되는 기준값 모델 데이터로서, 각 기준 얼굴의 얼굴 형상을 연속된 수치값으로 표현한 얼굴 정체성값과, 각 기준 얼굴의 얼굴 표정을 연속된 수치값으로 표현한 얼굴 표정값이 기준 얼굴별로 할당되어 있는 모델이다. 이러한 얼굴 기준값 저장 모델은 다양한 사람들의 다양한 표정에 대한 3D 얼굴 영상을 기계 학습(machine learning)을 통해 구축된 모델 데이터로서, 다양한 사람들의 얼굴 형상과 표정을 연속된 수치값으로 표현한 집합 데이터 모델로 표현되거나 데이터베이스 형태로 구축될 수 있다. wid는 사용자 얼굴 정체성값, wexp는 사용자 얼굴 표정값이라 할 때, 도 2에 도시한 바와 같이 매트릭스 형태된 기준 얼굴별로, 사용자 얼굴 정체성값과 사용자 얼굴 표정값이 각각 다르게 할당될 수 있다. 참고로 각 기준 얼굴별로 구체적인 얼굴 정체성값과 얼굴 표준값의 구체적인 수치값은 도 2에 도시되어 있지는 않다.The face reference value storage model 110 is a reference value model data used when analyzing a user's face image. The face reference value storage model 110 stores a face identity value representing a face shape of each reference face as a continuous numerical value, And the face expression values expressed by numerical values are assigned to the reference faces. The face reference value storage model is a model data constructed by machine learning of 3D facial images of various facial expressions of various people and is expressed as an aggregate data model in which face shapes and facial expressions of various people are expressed by successive numerical values Or can be built in database form. When w id is a user face identity value and w exp is a user face expression value, a user face identity value and a user facial expression value may be assigned differently for each reference face in the form of a matrix as shown in FIG. For reference, the concrete face value and the specific numerical value of the face standard value for each reference face are not shown in Fig.

여기서 얼굴 정체성값은 얼굴 형상의 종류를 연속된 수치값으로 요소화한 값을 의미한다. 예를 들어서, 이마가 넓은 얼굴, 광대뼈가 튀어나온 얼굴, 눈이 작거나 큰 얼굴, 코나 턱이 긴 얼굴 등, 눈, 이마, 코, 입술, 턱, 뺨, 미간 길이, 인중 길이, 광대뼈 등의 형상과 크기에 따라 다양한 얼굴 형상이 존재할 수 있고, 각 얼굴 형상에 따라 다른 얼굴 정체성값이 설정될 수 있다. 같은 표정을 연습하더라도 사용자마다 얼굴의 형상이 다를 수 있다. 따라서, 사용자 얼굴 정보를 생성하는 경우, 사용자마다 다른 값을 갖는 얼굴 정체성값을 고려할 수 있다. 따라서 얼굴 정체성값은, 얼굴의 구성 부위를 연속된 수치값으로 요소화한 값을 의미한다. 즉, 얼굴의 눈 크기, 코 크기, 입 크기, 얼굴의 폭, 얼굴의 높이 등을 수치화한 값이 해당될 수 있다.Here, the face identity value is a value obtained by ellifying the type of the face shape as a continuous numerical value. For example, if the forehead has a wide face, a cheekbone protruding face, a small or large eye, a long face with a cone or chin, eyes, forehead, nose, lips, jaws, cheeks, Various face shapes may exist depending on the shape and size, and different face identity values may be set according to each face shape. Even if you practice the same expression, the shape of your face may vary from person to person. Therefore, when user face information is generated, a face identity value having a different value can be considered for each user. Thus, the face identity value is a value obtained by ellating the constituent parts of the face into consecutive numerical values. That is, values obtained by digitizing the eye size of the face, the nose size, the mouth size, the width of the face, and the height of the face may be applicable.

얼굴 표정값이란, 얼굴 표정을 연속된 수치값으로 요소화한 값을 의미한다. 즉, 연습 얼굴 모델이나 하기할 사용자 얼굴 모델 같은 얼굴 모델이 가지는 표정의 변화 정도에 따라 다른 값을 가질 수 있다. 얼굴 표정값은 다양한 변수로 표현될 수 있다. 예를 들면, 얼굴 모델의 눈 모양과 관련된 얼굴 표정값은 눈 모양의 변화 정도에 따라 다른 값을 가질 수 있고, 얼굴 모델의 입 모양과 관련된 얼굴 표정값은 입 모양의 변화 정도에 따라 다른 값을 가질 수 있다. 이외에도 얼굴의 각 부위나 안면 근육의 위치와 방향을 고려하여 다양한 얼굴 표정값이 정의될 수 있다. 이때, 얼굴 표정값은 얼굴 모델이 표현하는 얼굴 모양, 즉 얼굴 정체성값이 다르더라도 같은 표정을 표현하고 있다면 같은 얼굴 표정값을 가질 수 있다.The facial expression value means a value obtained by factoring facial expressions into consecutive numerical values. That is, it can have a different value depending on the degree of change of expression of a face model such as an exercise face model or a user's face model to be performed. The facial expression value can be expressed by various variables. For example, the facial expression value associated with the eye shape of the face model may have a different value depending on the degree of change of the eye shape, and the facial expression value associated with the mouth shape of the face model may be different depending on the degree of change of the mouth shape Lt; / RTI > In addition, various facial expression values can be defined in consideration of the positions and orientations of facial parts and facial muscles. At this time, the facial expression value may have the same facial expression value if the facial expression represented by the facial model, that is, the facial identity value, is different from that of the same facial expression.

얼굴 형상별로 그리고 표정별로 촬영된 다양한 사람들의 얼굴 영상 데이터를 Procrustes Analysis를 통해 정열하고, PCA(Principal Component Analysis), SVD(Singular Value Decomposition), HOSVD(High Order Singular Value Decomposition) 중 적어도 하나를 포함하는 데이터 분석 방법을 통해 데이터의 얼굴 정보를 얼굴 정체성값과 얼굴 표정값의 연속된 수치값으로 요소화시켜 얼굴 기준값 저장 모델(110)이 구축될 수 있다.Facial image data of various people photographed by face shapes and facial expressions are arranged through Procrustes Analysis, and at least one of Principal Component Analysis (PCA), Singular Value Decomposition (SVD) and High Order Singular Value Decomposition (HOSVD) The facial reference value storage model 110 can be constructed by making the facial information of the data into elements by successive numerical values of the facial identity value and the facial expression value through the data analysis method.

사용자 얼굴 분석부(140)는, 제공받은 촬영정보 속 사용자의 얼굴 영상이 어떤 정체성값 및 어떤 표정값을 갖는지 분석한다. 이를 위해 사용자 얼굴 분석부(140)는, 사용자 얼굴 영상 생성부(130)를 통해 생성된 사용자 얼굴 영상과 매칭되는 얼굴 정체성값과 얼굴 표정값을 얼굴 기준값 저장 모델(110)을 기반으로 추정하여 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 결정한다. The user facial analysis unit 140 analyzes the identity value and the facial expression value of the face image of the user in the provided photograph information. To this end, the user facial analysis unit 140 estimates a face identity value and a facial expression value matching with the user facial image generated through the user facial image generation unit 130 based on the face reference value storage model 110, The facial identity value and the user facial expression value are determined.

즉, 사용자 얼굴 영상을 분석하여, 얼굴의 눈 크기, 코 크기, 입 크기, 얼굴의 폭, 얼굴의 높이 등을 연속된 수치값으로 요소화한 값인 사용자 얼굴 정체성값과 매칭되는 동시에 얼굴의 각 부위나 안면 근육의 위치와 방향을 고려한 얼굴 표정값과 매칭되는 기준되는 얼굴을 얼굴 기준값 저장 모델(110)로부터 추정한다. 여기서 매칭이라 함은 완전 동일함을 의미할 수도 있지만, 실제로는 사용자 얼굴 영상의 얼굴 정체성 및 얼굴 표정값과 가장 유사도가 높은 기준 얼굴을 매칭하는 것을 말한다. 따라서 사용자의 얼굴 영역에 해당하는 픽셀 값들로부터 분석된 사용자의 피부색 정보 및 텍스쳐 맵을, 스토리텔링 콘텐츠의 색감, 질감, 텍스쳐 등에 어울리게 변경시켜 입체감을 줄 수 있다.That is, the face image of the user is analyzed to match the face value of the user, which is a value obtained by factoring the eye size, the nose size, the mouth size, the face width, and the face height of the face into successive numerical values, The reference face matching with the facial expression value considering the position and direction of the facial muscle is estimated from the face reference value storage model 110. Here, the term " matching " may mean completely identical, but actually refers to matching the face identity of the user face image and the reference face having the highest similarity with the face expression value. Accordingly, the skin color information and the texture map of the user analyzed from the pixel values corresponding to the face region of the user can be modified to match the color, texture, and texture of the storytelling contents to give a stereoscopic effect.

스토리텔링 콘텐츠 진행부(150)는, 사용자 얼굴 분석부(140)를 통해 결정되는 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 과장 및 변형한 후 반영하여, 스토리텔링 콘텐츠로서 표시부(170)에 출력한다. 전술한 것처럼, 값과 표정값을 기준값과 비교하여 결정하는 과정 및 사용자 얼굴 정체성값과 표정값을 과장하고 변형하여 반영하는 과정은 실시간으로 수행될 수 있음은 물론이다. 사용자 얼굴 정체성 스토리텔링 콘텐츠 진행부(150)는, 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 상기 스토리텔링 콘텐츠의 3D 얼굴 모델이나 2D 얼굴 모델에 사용자 얼굴 피부 색상 분포를 또는 상기 과정으로 콘텐츠와 어울리게 변형된 사용자 얼굴 피부 색상 분포를 반영하여 출력할 수 있다. 즉, 스토리텔링 콘텐츠 진행부(150)는, 실시간으로 촬영되는 사용자 얼굴 영상으로부터 감정을 분석하여 감정에 해당하는 얼굴 표정값을 강조하여 사용자 3D 얼굴 모델에 반영하여 표시하는 것이다. 예를 들어, 도 3(a)에 도시한 바와 같이 모나리자 화보의 스토리텔링 콘텐츠에서, 도 3(b)의 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 반영한 3D 얼굴 모델로서 도 3(c)와 같이 반영하여 출력 표시할 수 있다. 참고로 3D 얼굴 모델은 3차원적으로 입체적인 얼굴 형상으로 표시되는 모델을 말한다.The storytelling content advancement unit 150 exaggerates and transforms the user's face identity value and the user's facial expression value determined through the user's facial analysis unit 140 and outputs the result to the display unit 170 as the storytelling content . As described above, it is needless to say that the process of determining the value and the facial expression value by comparing with the reference value, and the process of exaggerating and deforming the facial expression value and the user's facial identity value can be performed in real time. The user facial-identity storytelling content progressing section 150 may transform the user facial identity value and the user facial expression value into a 3D facial model or a 2D facial model of the storytelling contents, or a user facial skin color distribution, The user's facial skin color distribution can be reflected and output. That is, the storytelling content progressing unit 150 analyzes the emotion from the user face image photographed in real time, emphasizes the facial expression value corresponding to the emotion, reflects it on the user 3D face model, and displays it. For example, as shown in Fig. 3 (a), as a 3D face model reflecting user face identity values and user facial expression values in Fig. 3 (b) in the storytelling contents of the Mona Lisa pictorial information, And the output can be displayed. For reference, a 3D face model refers to a model that is displayed in a three-dimensional three-dimensional face shape.

또한, 스토리텔링 콘텐츠 진행부(150)는 사용자가 스토리텔링 콘텐츠와 interaction 한 정보를 분석하여 다음 스토리텔링 콘텐츠를 추천 및 진행해줄 수 있다.In addition, the storytelling content progressing unit 150 can analyze the information interacted with the storytelling contents by the user, and recommend and process the next storytelling contents.

나아가 스토리텔링 콘텐츠 진행부(150)는, 3D 얼굴 모델에 사용자 얼굴 피부 색상 분포를 반영하여 출력하도록 구현할 수 있다. 이를 위해 사용자 얼굴 분석부(140)는, 사용자 얼굴 영상 생성부(130)를 통해 실시간으로 생성되는 사용자 얼굴 영상의 픽셀값을 이용하여 사용자 얼굴 피부 색상 분포를 파악하며, 스토리텔링 콘텐츠 진행부(150)에서 출력중인 스토리텔링 콘텐츠의 색상 분포와 스타일에 맞게 분석된 사용자 얼굴 피부 색상 분포를 변형한다.Furthermore, the storytelling content progressing unit 150 may reflect the user's facial skin color distribution to the 3D facial model and output it. To this end, the user facial analysis unit 140 grasps the user's facial skin color distribution using the pixel values of the user facial image generated in real time through the user facial image generation unit 130, ) Transforms the skin color distribution of the user's face analyzed according to the color distribution and style of the storytelling contents being output.

또한, 스토리텔링 콘텐츠 진행부(150)는, 사용자의 신상정보에 맞추어서 자막 콘텐츠를 수정하여 출력할 수 있다.In addition, the storytelling content advancement unit 150 can modify and output the subtitle contents according to the user's personal information.

또한, 스토리텔링 콘텐츠 진행부(150)는, 타인 얼굴 정보가 반영된 타인 3D 얼굴 모델을 사용자의 3D 얼굴 모델과 함께 스토리텔링 콘텐츠에 함께 출력하도록 구현할 수 있다. 이를 위해, 도 4에 도시한 바와 같이 스토리텔링 콘텐츠 서버를 구비하여, 스토리텔링 콘텐츠 툴 제공 단말기는, 스토리텔링 콘텐츠를 즐기는 사용자가 아닌 다른 사람의 얼굴 정보를 스토리텔링 콘텐츠 서버로부터 수신하여 타인 얼굴 정보로서 저장하는 타인 얼굴 정보 모델(180)을 추가로 더 구비한다. 따라서 스토리텔링 콘텐츠 진행부(150)는, 타인 얼굴 정보가 반영된 타인 3D 얼굴 모델을 스토리텔링 콘텐츠에 함께 출력하여, 흥미를 배가시킬 수 있다.In addition, the storytelling content progressing unit 150 may be configured to output a third-person 3D face model reflecting the third-person face information together with the 3D face model of the user together with the storytelling content. To this end, as shown in FIG. 4, the storytelling contents tool providing terminal is provided with a storytelling content server, and receives the face information of a person other than the user enjoying the storytelling contents from the storytelling contents server, And a face information model 180 for storing the face information. Therefore, the storytelling content advancement unit 150 can output a different 3D face model reflecting the other person's face information together with the storytelling content, thereby doubling the interest.

따라서 본 발명은 사용자의 얼굴을 촬영할 수 있는 카메라나 센서를 포함하고 있는 스마트 디바이스(태블릿)을 포함한 플랫폼에서 작동하는 사용자가 주인공인 스토리텔링 콘텐츠 플랫폼을 개시하며, 본 발명에 따른 사용자가 주인공인 스토리텔링 콘텐츠 플랫폼은 사용자의 얼굴을 실시간으로 촬영하거나 촬영하였던 사용자의 얼굴을 획득하고, 사용자가 스토리텔링 콘텐츠와 interaction 하며, 사용자의 얼굴 및 신상정보가 재가공되어 입력된 스토리텔링 콘텐츠를 디스플레이하며, 사용자뿐만이 아니라 사전에 촬영 및 분석된 다른 사람 혹은 다른 디바이스에서 본 발명을 사용하고 있는 사용자도 함께 사용자가 사용하는 콘텐츠에 등장할 수 있도록 할 수 있다.Therefore, the present invention discloses a storytelling content platform in which a user who operates on a platform including a smart device (tablet) including a camera or a sensor capable of photographing a user's face is a main character, The telling contents platform acquires the face of the user who has photographed the face of the user in real time or photographed the user, interacts with the storytelling contents by the user, displays the storytelling contents in which the face and the personal information of the user are reproduced and inputted, But also a user who is using the present invention in another person or another device that has been photographed and analyzed in advance can also appear in the content used by the user.

한편, 스토리텔링 콘텐츠 진행부(150)는, 사용자 얼굴 분석부(140)를 통해 실시간으로 결정되는 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 반영하여 출력 및 표시하는데, 이러한 얼굴 표정값 반영은 3D 얼굴 모델 혹은 2D 얼굴 모델에 반영될 수 있으며, 이때, 수식 산출을 통한 반영도 가능하며 다양한 재가공을 하여 반영할 수 있다. 이하, 이와 같은 반영의 예를 도 5와 함께 상술한다.On the other hand, the storytelling content progressing unit 150 reflects and outputs the user's face identity value and the user's facial expression value determined in real time through the user's facial analysis unit 140. The facial expression value reflects the 3D face Model or 2D facial model. In this case, it can be reflected through the calculation of formulas and can be reflected by various reprocessing. Hereinafter, an example of such reflection will be described in detail with reference to FIG.

한편, 변환출력부(190)는 다양한 가공 과정을 통해 표시부(170)에 반영된 스토리텔링 콘텐츠를 프린팅 가능한 다큐먼트 파일로 변환 생성하거나 프린팅 파일을 생성하여 종이로 출력한다. 스토리텔링 콘텐츠가 다큐먼트 파일로 생성된 후에는 프린터를 통해 종이로 용이하게 출력되거나 사용자들간에 쉽게 교환 및 수정될 수 있다. Meanwhile, the conversion output unit 190 converts the storytelling contents reflected on the display unit 170 into a printable document file through various processes, or generates a printing file and outputs the printing file. After the storytelling contents are created as a document file, they can easily be output to paper through a printer or easily exchanged and modified between users.

도 5는 본 발명의 실시예에 따른 스토리텔링 콘텐츠 제공 과정을 도시한 플로차트이며, 도 6은 본 발명의 실시예에 따라 사용자 얼굴 영상에서 사용자 얼굴 정체값과 사용자 얼굴 특성값이 반영된 3D 얼굴 모델의 모습을 도시한 그림이며, 도 7은 본 발명의 실시예에 따라 3D 얼굴 모델이 회전된 모습을 도시한 그림이다.FIG. 5 is a flowchart illustrating a story-telling content providing process according to an embodiment of the present invention. FIG. 6 is a flowchart illustrating a process of providing a storytelling content according to an exemplary embodiment of the present invention. FIG. 7 is a view illustrating a 3D face model rotated according to an embodiment of the present invention.

본 발명의 스토리텔링 콘텐츠 제공 과정은, 사용자 얼굴 영상 생성 과정(S610), 사용자 얼굴 정체성값 및 표정값 결정 과정(S620), 사용자 얼굴 정보 재가공 과정(S630), 스토리텔링 콘텐츠 출력 과정(S640), 및 스토리텔링 콘텐츠 변환 과정(S650) 중의 적어도 하나를 포함할 수 있다.The storytelling contents providing process of the present invention includes a user face image generation process S610, a user face identity value and a facial expression value determination process S620, a user face information reprocessing process S630, a storytelling content output process S640, And a storytelling content conversion process (S650).

사용자 얼굴 영상 생성 과정(S610)은, 스토리텔링 콘텐츠를 즐기는 사용자의 얼굴을 실시간으로 촬영하여 사용자 얼굴 영상을 생성하는 과정이다. 카메라, 센서 등의 다양한 촬영 수단을 통해 사용자의 얼굴을 실시간으로 촬영하거나 예전에 촬영되었던 사용자의 얼굴 영상을 입력받을 수도 있다.The user face image generation process (S610) is a process of generating a user face image by photographing the face of a user enjoying the storytelling contents in real time. The face of the user can be photographed in real time through various photographing means such as a camera and a sensor or a face image of a user that has been photographed before.

사용자 얼굴 정체성값 및 표정값 결정 과정(S620)은, 촬영된 사용자 얼굴 영상을 이용하여, 사용자 얼굴 형상을 연속된 수치값으로 요소화(parameterized)한 사용자 얼굴 정체성값과, 사용자 얼굴 표정을 연속된 수치값으로 요소화한 사용자 얼굴 표정값을 결정하는 과정이다.The user's facial identity value and facial expression value determination process S620 is a process for determining a user's facial identity and a facial expression value using a user facial image obtained by parameterizing a user's facial shape to a continuous numerical value, And determining the user facial expression value that is elementized by the numerical value.

각 기준 얼굴의 얼굴 표정을 연속된 수치값으로 요소화한 얼굴 표정값과 각 기준 얼굴의 얼굴 형상을 연속된 수치값으로 요소화한 얼굴 정체성값이 기준 얼굴별로 할당되어 있는 얼굴 기준값 저장 모델이 구비되어 있다고 할 때, 사용자 얼굴 정체성값 및 표정값 결정 과정(S620)은 S610 과정에서 획득된 사용자 얼굴 영상을 얼굴 기준값 저장 모델과 비교 매칭 및 정합함으로써 사용자 얼굴 영상과 가장 유사한 얼굴 정체성값과 얼굴 표정값을 추출하여 결정할 수 있다.The facial expression value obtained by elementizing the facial expression of each reference face by continuous numerical values and the facial identity value obtained by factoring the facial shape of each reference face into consecutive numerical values are assigned to the reference face, The user's face identity value and facial expression value determination process S620 may be performed by comparing the user face image obtained in S610 with the face reference value storage model by comparing and matching the face identification value and the facial expression value Can be extracted and determined.

사용자 얼굴 정보 재가공 과정(S630)은 얼굴 정체성값 및 표정값 결정 과정으로부터 유추한 사용자의 얼굴정보의 특성을 과장하거나 사용자 얼굴 정보의 피부 정보를 포함한 질감정보를 스토리텔링 콘텐츠의 질감과 어울리게 재가공 하는 과정을 말한다.The process of re-processing the user's face information (S630) may include a process of exaggerating the characteristics of the user's facial information derived from the facial identity value and facial expression determination process, or re-processing the texture information including skin information of the user's face information, .

스토리텔링 콘텐츠 출력 과정(S640)은, 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 반영하여 표시부를 통해 스토리텔링 콘텐츠에 표시하는 과정이다. 이러한 스토리텔링 콘텐츠 출력 과정(S640)은, 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 3D 얼굴 모델에 반영하거나, 또는 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 2D 얼굴 모델에 반영하여 스토리텔링 콘텐츠에 표시 출력할 수 있다. 즉, 도 7에 도시한 바와 같이 3D 얼굴 모델을 반영할 수 있으며, 나아가 회전된 3D 얼굴 모델을 반영할 수 있다.The storytelling content output process S640 is a process of displaying the user's face identity value and the user's facial expression value on the storytelling contents through the display unit. Such a storytelling content output process (S640) may reflect the user facial identity value and the user facial expression value in the 3D facial model, or reflect the user facial identity value and the user facial expression value in the 2D facial model to be displayed in the storytelling content Can be output. That is, as shown in FIG. 7, the 3D facial model can be reflected, and the rotated 3D facial model can be reflected.

스토리텔링 콘텐츠 변환 과정(S650)은, 다양한 가공 과정을 통해 표시부(170)에 반영된 스토리텔링 콘텐츠를 프린팅 가능한 다큐먼트 파일로 변환 생성하거나 종이로 출력하는 과정이다. 스토리텔링 콘텐츠가 다큐먼트 파일로 생성된 후에는 프린터를 통해 종이로 용이하게 출력되거나 사용자들간에 쉽게 교환 및 수정될 수 있다. The storytelling contents conversion process S650 is a process of transforming the storytelling contents reflected on the display unit 170 into a printable document file through various processes, or outputting it as paper. After the storytelling contents are created as a document file, they can easily be output to paper through a printer or easily exchanged and modified between users.

전술한 것처럼, 얼굴 기준값 저장 모델(110)은, 얼굴 형상별로 그리고 표정별로 촬영된 다양한 사람들의 3D 얼굴 영상 데이터가 Procrustes Analysis를 통해 정열된 후, PCA(Principal Component Analysis), SVD(Singular Value Decomposition), HOSVD(High Order Singular Value Decomposition) 중 적어도 하나를 포함하는 데이터 분석 방법을 통해 얼굴 정체성값과 얼굴 표정값이 연속된 수치값으로 요소화되어 다양한 얼굴 모델의 집합으로 구축될 수 있다.As described above, the face reference value storage model 110 stores the 3D facial image data of various people photographed by face shape and facial expression through the Procrustes Analysis, and then performs PCA (Principal Component Analysis), SVD (Singular Value Decomposition) , And HOSVD (High Order Singular Value Decomposition), the facial identity value and the facial expression value can be constituted into a continuous set of numerical values and constructed as a set of various facial models.

이때, 얼굴 기준값 저장 모델(110)에서의 3D 얼굴 모델을 V라고 하면,

Figure 112017087055861-pat00004
이다. 여기서,
Figure 112017087055861-pat00005
은 실수 공간을 의미하고, p는 3D 얼굴 모델인 V의 vertex의 수를 의미한다. 즉, 3p는 vertex 수의 3차원 공간을 의미한다.At this time, if the 3D face model in the face reference value storage model 110 is V,
Figure 112017087055861-pat00004
to be. here,
Figure 112017087055861-pat00005
Denotes the real space, and p denotes the number of vertices of the 3D face model, V. That is, 3p denotes a three-dimensional space of the number of vertices.

한편, 얼굴 기준값 저장 모델(110)에서의 3D 얼굴 모델인 V는 다음의 [식 1]처럼 표현될 수 있다.On the other hand, the 3D face model V in the face reference value storage model 110 can be expressed as [Equation 1].

[식 1][Formula 1]

V=g(C,wV = g (C, w idid ,w, w expexp ))

여기서, wid는 사용자 얼굴 정체성값, wexp는 사용자 얼굴 표정값이고, C는 사용자에게 직접 보여지지 않는 시스템 내부에서 PCA, SVD, HOSVD 중의 적어도 하나를 통해 학습된 얼굴 특징 분포의 학습 모델이며, 함수 g()는 다양한 방식으로 전개될 수 있다. 즉, 3D 얼굴 모델은 C에 wid와 wexp의 값을 변화시킴으로써 다양한 얼굴 모델이 생성될 수 있다.Where w id is the face identity value of the user, w exp is the face facial expression value of the user, C is the learning model of the facial feature distribution learned through at least one of PCA, SVD, and HOSVD in the system, The function g () can be expanded in various ways. In other words, the 3D face model can generate various face models by changing the values of w id and w exp in C.

한편, 얼굴 기준값 저장 모델이 HOSVD를 통해 학습되어 구성된 경우, 3D 얼굴 모델인 V는 다음의 [식 2]와 같이 텐서 연산으로 표현될 수 있다. On the other hand, when the face reference value storage model is learned and configured through HOSVD, the 3D face model V can be expressed by a tensor operation as shown in the following [Equation 2].

[식 2][Formula 2]

Figure 112017087055861-pat00006
Figure 112017087055861-pat00006

여기서, C는 HOSVD를 통해 연산된 core tensor이다. Here, C is the core tensor calculated through HOSVD.

여기서, 텐서 연산은 얼굴 정체성값, 얼굴 표정값, 얼굴 구조체 (vertex) 정보를 서로 파라미터화(parameterized)하기 위한 식이다. 사용자 얼굴 영상으로부터 분석되는 얼굴 정체성값, 얼굴 표정값, 얼굴 크기 정보, 얼굴 위치 정보, 얼굴 회전 정보 및 카메라 정보는 다음과 같이 렌더링 과정에서 사용될 수 있다.Here, the tensor operation is an expression for parameterizing the face identity value, the facial expression value, and the face structure information (vertex) with each other. The facial identity value, facial expression value, face size information, face position information, face rotation information, and camera information analyzed from the user facial image can be used in the rendering process as follows.

한편, PCA를 통해 데이터의 평균과 고유 벡터로 3D 얼굴 모델인 V를 표현할 경우, 다음의 [식 3]처럼 표현될 수 있다.On the other hand, when the 3D face model V is expressed by the mean and eigenvector of the data through the PCA, it can be expressed as the following [Equation 3].

[식 3] [Formula 3]

Figure 112017087055861-pat00007
Figure 112017087055861-pat00007

이 때의

Figure 112017087055861-pat00008
,
Figure 112017087055861-pat00009
,
Figure 112017087055861-pat00010
는 각각 PCA를 통해 학습된 데이터의 평균값, 얼굴의 정체성과 관련된 고유벡터, 얼굴의 표정값과 관련된 고유벡터이다.At this time
Figure 112017087055861-pat00008
,
Figure 112017087055861-pat00009
,
Figure 112017087055861-pat00010
Is an eigenvector related to the average value of the data learned through the PCA, the eigenvector associated with the facial identity, and the facial expression value.

한편, 스토리텔링 콘텐츠 출력 과정(S640)에서는, 상기 V=g(C,wid,wexp) 함수가 반영된 3D 얼굴 모델(V)을 하기의 [식 4]에 의해 2차원 화면에 투영하여 화면에 출력할 수 있다. On the other hand, in the storytelling content outputting process (S640), the 3D face model (V) reflecting the function V = g (C, w id , w exp ) is projected onto the two- .

[식 4] [Formula 4]

Figure 112017087055861-pat00011
Figure 112017087055861-pat00011

여기서, F는 2D 얼굴 모델로서 3D 얼굴 모델이 2차원 화면에 투영된 모델이고, s는 얼굴의 크기를 조정하는 얼굴 크기 정보이고, MP(f)는 Homogeneous coordinate 상에서 카메라 초점거리 f의 perspective projection 행렬

Figure 112017087055861-pat00012
를 이용해 3D 위치를 화면상의 2D 위치로 매핑하는 카메라 함수이고, R은 얼굴을 회전시키는 얼굴 회전 정보이며, T는 얼굴의 위치를 이동시키는 얼굴 위치 정보이다. 여기서,
Figure 112017087055861-pat00013
이고,
Figure 112017087055861-pat00014
이며,
Figure 112017087055861-pat00015
이다.Here, F is a 2D face model, a 3D face model is projected on a two-dimensional screen, s is face size information for adjusting the face size, and M P (f) is a perspective projection procession
Figure 112017087055861-pat00012
R is a face rotation information for rotating a face, and T is a face position information for moving a position of a face. here,
Figure 112017087055861-pat00013
ego,
Figure 112017087055861-pat00014
Lt;
Figure 112017087055861-pat00015
to be.

상기의 [식 4]은 [식 1]로 계산되는 3D 얼굴 모델이 실제 화면에서 사용자에게 보여지며 모델링될 때의 수학식에 해당한다. [Equation 4] corresponds to a mathematical expression when a 3D face model calculated by [Equation 1] is displayed to a user on an actual screen and is modeled.

즉, 상기 [식 4]에 의해 3D 얼굴 모델을 다양한 각도로 회전시키는 동시에 크기도 조정하여 출력할 수 있을 뿐만 아니라, 얼굴 정체성값 및 표정값을 변경하여 출력할 수도 있다. That is, the 3D facial model can be rotated at various angles and the size can be adjusted and output by the above-described [Expression 4], and the face identity value and the facial expression value can be changed and output.

도 9는 얼굴 기준값 저장 모델과 3D 얼굴 모델의 회전 또는 변형을 예시한 도면이다. 즉, 상기 [식 4]에 의해 3D 얼굴 모델을 다양한 각도로 회전시키는 동시에 크기도 조정하여 출력할 수 있을 뿐만 아니라, 얼굴 정체성값 및 표정값을 변경하여 출력할 수도 있다.9 is a diagram illustrating rotation or deformation of a face reference value storage model and a 3D face model. That is, the 3D facial model can be rotated at various angles and the size can be adjusted and output by the above-described [Expression 4], and the face identity value and the facial expression value can be changed and output.

이후 변수 표현의 간략화를 위해

Figure 112017087055861-pat00016
라고 기술하도록 한다.To simplify the expression of variables afterwards
Figure 112017087055861-pat00016
.

여기서, m은 각 구성요소의 집합으로서, 해당 집합의 구성요소는 얼굴 정체성값(wid), 얼굴 표정값(wexp), 얼굴 크기 정보에서의 크기값(s), 얼굴 위치 정보에서의 병진값(tx,ty), 얼굴 회전 정보에서의 회전값(rx,ry,rz), 카메라 초점거리(f)이다.Here, m is a set of each component, and the constituent elements of the set include a facial identity value (w id ), a facial expression value (w exp ), a size value (s) in the face size information, a value (t x, t y), rotation of the face in the rotation information (r x, r y, r z), the camera focal length (f).

[식 5][Formula 5]

Figure 112017087055861-pat00017
Figure 112017087055861-pat00017

Figure 112017087055861-pat00018
는 2차원 화면에 투영된 3D 얼굴 모델, 즉 2D 얼굴 모델로부터 기정의된 vertex의 위치만을 추출하는 함수이고,
Figure 112017087055861-pat00019
는 wid와 wexp로부터 생성된 3D 얼굴 모델인 V로부터 기정의된 vertex의 위치만을 추출하는 함수이다. 이 때,
Figure 112017087055861-pat00020
은 기정의된 vertex의 수이며
Figure 112017087055861-pat00021
이다.
Figure 112017087055861-pat00018
Is a function for extracting only a position of a vertex determined from a 3D face model projected on a two-dimensional screen, that is, a 2D face model,
Figure 112017087055861-pat00019
Is a function that extracts only the positions of the vertices that have been defined from the 3D face model V generated from w id and w exp . At this time,
Figure 112017087055861-pat00020
Is the number of vertices predefined
Figure 112017087055861-pat00021
to be.

그리고, m은 전술한 것처럼 얼굴 정체성값(wid), 얼굴 표정값(wexp), 얼굴 크기 정보에서의 크기값(s), 얼굴 위치 정보에서의 병진값(tx,ty), 얼굴 회전 정보에서의 회전값(rx,ry,rz), 카메라 초점거리(f)를 포함하는 구성요소의 집합이다.M represents a face value (w id ), a face expression value (w exp ), a size value s in the face size information, a translation value (t x , t y ) in the face position information, rotation of the rotation information (r x, r y, r z), the set of components including a camera focal length (f).

F를 m의 요소로부터 생성되는 2차원 영상에 투영된 모델, I를 입력 영상, V를 얼굴 정체성값(wid)과 얼굴 표정값(wexp)으로 요소화된 3D 얼굴 모델, x2d와 x3d는 각각 입력된 모델에서 기정의된 특징점의 위치를 추출하는 함수, A를 3D 얼굴 모델의 텍스쳐(texture) 학습 모델,

Figure 112017087055861-pat00022
를 후술하겠지만 입력 정보로부터 구별이 분명한(distinctive) 특징(feature)를 추출하는 특징 추출 연산자라고 할 때, 상기 [식 5]에 의해 얼굴 정체성값(wid)과 얼굴 표정값(wexp)이 결정될 수 있다.F is a model projected on a two-dimensional image generated from elements of m, I is an input image, V is a 3D face model that is elementized by facial identity value (w id ) and facial expression value (w exp ), x 2d and x 3d is a function for extracting the positions of predetermined feature points in the input model, A is a texture learning model of the 3D face model,
Figure 112017087055861-pat00022
A face identity value w id and a facial expression value w exp are determined by Expression 5 as a feature extraction operator that extracts distinctive features from input information as will be described later .

상기 [식 5]는 카메라로부터 받아온 촬영 정보인 입력 영상 I로부터 [식 4]의 3D 얼굴 모델을 복원할 때 사용되거나 혹은 그러한 모델을 학습할 때 사용되는 목적 함수(Objective Function)이다. 즉, 영상에 나타난 얼굴을 3D 얼굴 모델로 복원할 때 사용되는 목적함수를 의미한다. 이 때, A는 3D 얼굴 모델의 텍스쳐(texture) 학습 모델이다. 즉, 영상 속 얼굴을 묘사하는 현재 3D 얼굴 모델의 파라미터인 m을 업데이트 하는 Δm을 찾는 것이 목적이다. [Equation 5] is an objective function used when restoring the 3D face model of [Equation 4] from the input image I, which is photographing information received from the camera, or when learning the model. That is, it means an objective function used when restoring the face shown in the image to the 3D face model. In this case, A is a texture learning model of a 3D face model. That is, the aim is to find? M that updates the parameter m of the current 3D face model that depicts the face in the image.

여기서,

Figure 112017087055861-pat00023
는 합성곱 신경망(Convolutional Neural Network), 심층 신경망(Deep Neural Network), SIFT 중 적어도 하나를 사용하여 데이터의 특징(feature)을 추출(extraction)하는 특징 추출 연산자이다. 이때,
Figure 112017087055861-pat00024
가 합성곱 신경망 혹은 심층 신경망인 경우, 비록 두 입력 데이터의 종류가 다르더라도(
Figure 112017087055861-pat00025
) 특징 추출 연산자(
Figure 112017087055861-pat00026
)를 통과한 두 데이터가 유사한 값을 출력하도록 상기 특징 추출 연산자(
Figure 112017087055861-pat00027
)를 학습시킬 수 있다. 이 때,
Figure 112017087055861-pat00028
Figure 112017087055861-pat00029
는 상기 설명한
Figure 112017087055861-pat00030
의 형태를 갖는 특징 추출 연산자의 예를 나타내며, 둘은 내부 상수 혹은 변수만 다를 뿐 서로 동일한 연산자일 수 있으며, 혹은 서로 다른 형태의 입력을 받지만 같은 값을 출력하도록 디자인된 서로 다른 연산자일 수 있다. here,
Figure 112017087055861-pat00023
Is a feature extraction operator that extracts features of data using at least one of Convolutional Neural Network, Deep Neural Network, and SIFT. At this time,
Figure 112017087055861-pat00024
Is a composite neural network or a neural network, even though the types of the two input data are different
Figure 112017087055861-pat00025
) Feature Extraction Operator (
Figure 112017087055861-pat00026
) To output a similar value to the feature extraction operator (
Figure 112017087055861-pat00027
Can be learned. At this time,
Figure 112017087055861-pat00028
and
Figure 112017087055861-pat00029
Quot;
Figure 112017087055861-pat00030
And two of them may be the same operator with different internal constants or variables or they may be different operators designed to receive different types of input but output the same value.

특징 추출 연산자는 데이터를 영상 정보가 아닌 다른 차원의 정보로 더욱 분별력 있게 표현하는 것을 의미하고, 심층 신경망은 기존의 신경망(Neural Network)를 확장하여 Convolution Layer, Pooling Layer, Normalization Layer, Recurrent Layer 등의 조합으로 구성된 네트워크를 사용하는 학습 기법을 의미할 수 있다. The feature extraction operator means to display the data more informally with information other than the image information. In the neural network, the neural network extends the existing neural network, such as Convolution Layer, Pooling Layer, Normalization Layer and Recurrent Layer. It can mean a learning technique that uses a network of combinations.

그리고, dist[]는 두 벡터간의 거리를 나타내며, 두 벡터 간의 거리로서 유사도가 판단될 수 있다. 한편, 두 벡터 간의 거리는 코사인 거리(Cosine Distance), 유클리디안 거리(Euclidean Distance), 해밍 거리(Hamming Distance) 중 적어도 하나의 측정치를 이용하여 계측될 수 있다. And dist [] represents the distance between two vectors, and the similarity can be judged as the distance between two vectors. Meanwhile, the distance between the two vectors can be measured using at least one of cosine distance, Euclidean distance, and Hamming distance.

여기서, 코사인 거리는 두 데이터 간의 유사도를 코사인 연산으로 알아내는 방법을 의미하고, 유클리디안 거리는 두 데이터 간의 유사도를 L2 norm으로 알아내는 방법을 의미하며, 해밍 거리는 두 데이터 간의 유사도를 각 데이터를 구성하는 요소간 차이나는 부분의 개수로 측정하는 방법을 의미한다.Here, the cosine distance means a method of finding the similarity between two data by a cosine operation, and the Euclidean distance means a method of finding the similarity between two data by L2 norm. Difference between elements means a method of measuring by the number of parts.

한편, 영상 속 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 분석할 때, [식 5]를 통한 3D 얼굴 모델을 이용한 방법이 아닌 하기의 [식 6]의 목적 함수를 통해 2D 얼굴 특징점(X2d)을 추출한 후, 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 분석할 수 있다. Meanwhile, when analyzing the user facial identity value and the user facial expression value in the image, the 2D facial feature point (X 2d ) is obtained through the objective function of the following [Formula 6] rather than the method using the 3D facial model using [Formula 5] The user's face identity value and the user facial expression value can be analyzed.

[식 6] [Formula 6]

Figure 112017087055861-pat00031
Figure 112017087055861-pat00031

이 경우, I는 얼굴 특징점을 추출할 입력 영상이고, dist[]와

Figure 112017087055861-pat00032
는 상기 [식 5]에서의 설명과 같다. In this case, I is the input image from which the facial feature points are to be extracted, dist [
Figure 112017087055861-pat00032
Is the same as that described in the above-mentioned [Formula 5].

Figure 112017087055861-pat00033
는 2D 얼굴 영상이나 얼굴 기준값 저장 모델의 3D 얼굴 영상에서 기정의된 특징점, D는 특징점이 마킹되어 있는 2D 얼굴 영상 혹은 3D 얼굴 영상을 의미한다. 이때, D가 3D 얼굴 모델 데이터베이스의 경우 [식 1]의 얼굴 기준값 저장 모델을 만들기 위한 3D얼굴 모델 데이터베이스와 동일할 수 있다. 즉, [식 6]은 입력 영상 I에서 현재 추측(estimating)중인
Figure 112017087055861-pat00034
로부터 나온 Feature가 데이터베이스로부터 학습한 Feature,
Figure 112017087055861-pat00035
와 가까워지도록
Figure 112017087055861-pat00036
를 업데이트 하는
Figure 112017087055861-pat00037
를 추측하는 것이다. 이와 같은 방법으로
Figure 112017087055861-pat00038
를 추측함으로써 영상 속 얼굴의 특징점의 위치를 알아낼 수 있다.
Figure 112017087055861-pat00033
Is a predetermined feature point in a 3D face image of a 2D face image or face reference value storage model, and D is a 2D face image or a 3D face image in which feature points are marked. In this case, D may be the same as the 3D face model database for creating the face reference value storage model of [Expression 1] in the 3D face model database. In other words, [Equation 6] is obtained by dividing the input image I currently estimated
Figure 112017087055861-pat00034
Feature extracted from the database,
Figure 112017087055861-pat00035
To be close to
Figure 112017087055861-pat00036
To update
Figure 112017087055861-pat00037
. In this way
Figure 112017087055861-pat00038
The position of the feature point of the face in the image can be found.

이 때,

Figure 112017087055861-pat00039
Figure 112017087055861-pat00040
는 상기 설명한
Figure 112017087055861-pat00041
의 형태를 갖는 특징 추출 연산자의 예를 나타내며, 둘은 내부 상수 혹은 변수만 다를 뿐 서로 동일한 연산자일 수 있으며, 혹은 서로 다른 형태의 입력을 받지만 같은 값을 출력하도록 디자인된 서로 다른 연산자일 수 있다. 또한,
Figure 112017087055861-pat00042
는 특정 고차원의 특징을 추출하는 것이 아닌, 입력된 값, 혹은 입력된 값의 요소값을 그대로 출력하도록 디자인할 수 있음은 물론이다.At this time,
Figure 112017087055861-pat00039
and
Figure 112017087055861-pat00040
Quot;
Figure 112017087055861-pat00041
And two of them may be the same operator with different internal constants or variables or they may be different operators designed to receive different types of input but output the same value. Also,
Figure 112017087055861-pat00042
It is needless to say that the input value or the element value of the input value can be designed to be output without directly extracting the specific high dimensional feature.

[식 7][Equation 7]

Figure 112017087055861-pat00043
Figure 112017087055861-pat00043

[식 8][Equation 8]

Figure 112017087055861-pat00044
Figure 112017087055861-pat00044

이후, [식 7] 및 [식 8]과 같이 해당 얼굴 특징점의 위치(X2d)를 PCA(Principle Component Analysis), SVD(Singular Value Decomposition), HOSVD(High Order SVD)중 하나를 포함하는 방법으로 분석한 얼굴 기준값 저장 모델의 얼굴 정체성 혹은 얼굴 표정 형태 공간(shape space,Cid,Cexp)에 투영(projection)함으로써 사용자 얼굴 정체성값 혹은 사용자 얼굴 표정값을 유추할 수 있다. 이 때, ,

Figure 112017087055861-pat00045
는 데이터베이스에서의 평균 얼굴 형태이다.Thereafter, the method comprises one of [Formula 7] and [Expression 8] and the face position (X 2d) the PCA (Principle Component Analysis), SVD (Singular Value Decomposition), (High Order SVD) HOSVD of the feature points as The user's facial identity value or user's facial expression value can be inferred by projecting the facial identity or the facial expression shape space (C id , C exp ) of the analyzed face reference value storage model. At this time, ,
Figure 112017087055861-pat00045
Is the average face shape in the database.

한편, [식 5]]와 [식 6]을 통한 산출을 위해서는 경사 하강법(Gradient Descent), 연속된 리그레서(Cascade Regressor)를 통한 선형 리그레션(linear regression) 방법, 반복 신경망(Recurrent Neural Network)을 통한 방법 중 어느 하나 이상을 사용할 수 있다.For calculation through [Equation 5] and [Equation 6], a gradient regression method using a gradient descent method, a linear regression method using a continuous regressor, a recurrent neural network ) May be used.

여기서 경사 하강법은 미분 개념을 활용한 방법으로써, 현재의 위치에서 기울기(Gradient)에 비례하여 단계적으로 함수의 최소 또는 최대에 접근하는 점근적인 알고리즘을 의미한다. 즉, 주어진 문제의 최소 또는 최대값을 찾기 위해 문제의 해답의 초기 예상 값부터 시작해서 경사(Gradient)를 따라 탐색해 나가는 방법을 의미한다.The slope descent method is a method using the differential concept, which means an asymptotic algorithm that approaches the minimum or maximum of the function step by step in proportion to the gradient at the current position. That is, it means searching along the gradient starting from the initial estimate of the solution of the problem to find the minimum or maximum value of the given problem.

또한, 연속된 리그레서를 통한 리그레션 방법은 함수의 최소 또는 최대 값을 구하기 위해 기존의 문제에서 해답을 구하는 과정을 미리 학습한 연속된 리그레서를 연속적으로 적용하면서 탐색하는 알고리즘을 의미한다. 이때, 리그레서(Regressor)로서, 문제를 다른 차원의 특징 공간(Feature Space)으로 표현하여 해당 특징 공간에서의 반복적인 선형 결합으로 문제의 해를 구하는 연속된 선형 리그레서(Cascade Linear Regressor), 문제를 트리나 FERN 구조의 특징 벡터들의 연속된 조합으로 해를 구하는 트리 기반 리그레서(Tree bases Regressor)등을 예시할 수 있다.In addition, the regression method through the continuous regressor means an algorithm that continuously searches for a series of regressors by learning a solution to an existing problem in order to obtain a minimum or maximum value of a function. At this time, as a regressor, there are a continuous linear regressor which expresses a problem as a feature space of another dimension and obtains a problem solution by repetitive linear combination in the feature space, And a tree bases regressor for finding a solution by a series of combinations of feature vectors of a FERN structure.

또한, 반복 신경망은 신경망(Neural Network)을 구성할 때, 데이터의 방향이 앞으로만 진행하는(Feed Forward) 것이 아닌, 앞뒤 양방향으로 진행할 수 있는 (Recurrent) 반복적인 순환 구조를 특징으로 하는 신경망을 의미한다.In addition, the iterative neural network is a neural network that is characterized by a repetitive cyclic structure that can proceed both forward and backward (forward) rather than forward (forward) data direction when constructing a neural network do.

결국, 본 발명은, 얼굴 촬영 영상으로부터 사용자 얼굴 정보를 활용하기 위하여 1) 얼굴 검출, 2) 얼굴 특징점 검출, 3) 감정 및 표정을 포함한 얼굴 특성 인식의 단계를 거쳐서 얼굴 정보를 분석한다. 이때, 1) 얼굴 검출 단계에서 빠르고 정확한 프로세싱을 위해서 Adaboost(Adaptive Boosting)를 이용한 템플릿 기반 검출 기법을 사용할 수 있다. 2) 얼굴 특징점 검출 단계에서는 [식 6]을 이용한 방법을 사용할 수 있으며, 합성곱 신경망(Convolutional Neural Network)를 사용할 수 있다. 또한 모든 단계에서 합성곱 신경망(Convolutional Neural Network)를 사용할 수 있다. 3) 감정 및 표정을 포함한 얼굴 특성 인식의 단계에서 합성곱 신경망(Convolutional Neural Network)를 사용할 수 있다.Finally, in order to utilize the user's face information from the facial image, the present invention analyzes the facial information through the steps of 1) face detection, 2) facial feature point detection, and 3) facial feature recognition including emotion and facial expression. In this case, 1) a template-based detection method using Adaboost (Adaptive Boosting) can be used for fast and accurate processing in the face detection step. 2) In the facial feature point detection step, a method using [Equation 6] can be used and a Convolutional Neural Network can be used. You can also use Convolutional Neural Network at all stages. 3) Convolutional Neural Network can be used at the stage of face recognition including emotion and facial expression.

여기서 Adaboost와 나선형 신경망은 모두 기계 학습(Machine Learning)에 사용되는 알고리즘이다. Adaboost는 약한 분류기를 연속적으로 결합하여 더 강력한 분류기를 만드는 방법을 의미하고, 다른 종류의 학습 알고리즘과 같이 쓰임으로써 그 성능을 증대시킬 수 있다. 또한, 합성곱 신경망은 다량의 데이터 속에서 일정한 패턴을 파악해 낼 수 있도록 해주는 인공 신경망(Artificial Neural Network)의 일종이다.Here, both Adaboost and Spiral Neural Network are algorithms used for Machine Learning. Adaboost means to create a stronger classifier by combining weak classifiers successively, and it can be increased by using it with other kinds of learning algorithms. In addition, the articulated neural network is a type of artificial neural network that allows a certain pattern to be grasped in a large amount of data.

또한, 분석한 얼굴 정체성값(wid), 또는 분석한 얼굴 형태(Xi 2d)로부터 사용자의 얼굴 특성(눈 크기, 코 크기, 얼굴 높이 등)을 분석한다. 분석된 얼굴 특성을 기반으로 분석된 사용자의 얼굴 정체성값을 강조하여 3D얼굴 모델의 얼굴 특성을 강조한다. 또한, 사용자 얼굴 정보를 실시간으로 받아들여 해당 영상에서 사용자의 [식 5] 또는 [식 6]을 실시간으로 풀어내어 사용자의 얼굴 모델을 업데이트한다. 사용자의 얼굴 모델을 업데이트하면서, wid의 변화가 어느 정도 수렴했을 경우, wid를 고정시키고 [식 5] 또는 [식 6]을 푼다.The user's facial characteristics (eye size, nose size, face height, etc.) are analyzed from the analyzed facial identity value (w id ) or the analyzed facial shape (X i 2d ). We emphasize facial characteristics of 3D face model by emphasizing user 's face identity value based on analyzed facial characteristics. In addition, the user's face information is received in real time and the user's [Formula 5] or [Formula 6] is solved in real time to update the user's face model. When updating the face model of the user, when the change of w id converges to some extent, fix w id and solve [Expression 5] or [Expression 6].

마찬가지로 사용자의 얼굴 모델을 업데이트하면서, Wexp의 변화가 어느 정도 수렴했을 경우, wid를 고정시키고 [식 5] 또는 [식 6]을 푼다.Similarly, while updating the face model of the user, if the change of W exp converges to some extent, fix w id and solve [Eq. 5] or [Eq. 6].

또한, 분석된 얼굴 모델의 질감(texture, 텍스쳐) 값을 기정의(pre-defined)된 현재 스토리텔링 콘텐츠의 질감(texture, 텍스쳐) 분포 값과 비슷한 분포를 가지도록 변환(mapping)을 시켜서, 분석된 사용자의 얼굴 모델의 질감(texture, 텍스쳐)가 현재 스토리텔링 콘텐츠의 질감(texture, 텍스쳐)과 어울리도록 만든다. 이 때, k-means clustering과 같은 군집 알고리즘을 사용할 수 있다. 혹은 영상 콘텐츠의 스타일을 다른 영상 콘텐츠에다가 입히는 합성곱 신경망(Convolutional Neural Network)기법을 사용할 수 있다.In addition, the texture of the analyzed face model is mapped to have a distribution similar to the texture of the pre-defined current storytelling contents, The texture of the user's face model is matched with the texture of the current storytelling contents. In this case, a clustering algorithm such as k-means clustering can be used. Or a Convolutional Neural Network technique in which styles of image contents are applied to other image contents.

[식 5], [식 6], [식 7]을 통해 분석한 사용자 얼굴의 실시간 회전 정보를 일정 가중치를 주어서 현재 스토리텔링 콘텐츠 상의 주인공의 기준 얼굴 움직임에 영향을 미치도록 더할 수 있다.The real-time rotation information of the user's face analyzed through [Expression 5], [Expression 6], and [Expression 7] can be added to influence the reference face motion of the main character on the current storytelling content by giving a predetermined weight.

또한, [식 5] 또는 [식 7]을 통해 분석한 사용자 얼굴의 실시간 표정 정보에 일정 가중치를 주어서 현재 스토리텔링 콘텐츠 상의 주인공의 기준 표정에 영향을 미치도록 더할 수 있다.In addition, the real-time facial expression information of the user's face analyzed through [Formula 5] or [Formula 7] can be added to affect the reference expression of the main character on the current storytelling content by giving a predetermined weight.

또한, 분석한 사용자 얼굴의 실시간 감정 정보를 일정 가중치를 주어서 현재 스토리텔링 콘텐츠 상의 주인공의 기준 감정에 영향을 미치도록 더할 수 있다. 또한 해당 인식된 감정 정보는 스토리텔링 콘텐츠를 구성하고 있는 서브 콘텐츠들의 변화에 영향을 줄 수 있다.In addition, real-time emotion information of the analyzed user's face can be added to influence the reference emotion of the main character on the current storytelling content by giving a certain weight. In addition, the perceived emotion information may affect changes in the sub-contents constituting the storytelling contents.

또한, 저장되어 있는 사용자의 스토리텔링 콘텐츠 interaction 정보를 분석하여 다음 콘텐츠를 추천할 수 있다. 이때, 분석 지표는 사용자의 스토리텔링 콘텐츠 이해력 및 일반적인 통용 지식이 될 수 있다. 사용자의 스토리텔링 콘텐츠 interaction 정보를 분석한 정보를 사용자 데이터베이스(미도시)에 저장한다.Also, it is possible to recommend the next contents by analyzing the stored story information contents interaction information of the user. At this time, the analysis index can be a comprehension of the contents of the user's storytelling contents and general knowledge. The information analyzing the user's storytelling content interaction information is stored in a user database (not shown).

도 8은 본 발명의 실시예에 따라 분석된 사용자의 얼굴 모델을 콘텐츠의 색상과 스타일 등 환경에 어울리게 변형하여 콘텐츠 상에 투영하거나 삽입하는 것을 예시한 그림이다.8 is a diagram illustrating an example of projecting or inserting a user's facial model analyzed according to an embodiment of the present invention on a content by modifying the facial model of the user according to an environment such as color and style of the content.

본 발명은, 도 8(a)와 같은 사용자에 대하여, 도 8(b)에 도시한 바와 같이 본 발명의 실시예에 따라 시스템이 사용자의 얼굴 특성을 3차원 혹은 2차원으로 분석한 후, 도 8(c)에 도시한 바와 같이 분석된 얼굴 특성을 콘텐츠의 색상과 스타일 등 콘텐츠의 환경에 어울리게 변형하여 콘텐츠 상에 투영하거나 삽입할 수 있게 된다.8A, the system analyzes the face characteristics of the user in three dimensions or two dimensions according to an embodiment of the present invention, as shown in Fig. 8B, As shown in FIG. 8 (c), the analyzed facial characteristics can be projected or inserted onto the contents by modifying the facial characteristics corresponding to the environment of the contents such as the color and style of the contents.

한편, 영상에 나타난 얼굴을 3차원 얼굴 모델로 복원한다는 것은, 얼굴 정체성값(wid)와 얼굴 표정값(wexp)를 추정한다는 것이다. 추정된 얼굴 정체성값(wid)에는 해당 얼굴의 특성들 (넓은 얼굴인지 긴 얼굴인지, 코 높이가 높은 얼굴인지 낮은 얼굴인지, 미간이 긴지 짧은지 등 ..)이 연속된 수치값으로 나타내어진다. 이때, 그 수치값들 중 두드러진 값(예컨대, 매우 크거나 매우 작은 값)을 더욱 크게 하거나 작게 하여서 복원된 얼굴 모델의 특성을 강조할 수 있다(예컨대, 얼굴이 긴 사람은 더 길게, 얼굴이 짧은 사람은 더 짧게 할 수 있음). 따라서 위의 과정을 따라 콘텐츠의 색상과 스타일에 어울리도록 사용자의 얼굴 특성을 강조하고 변형하여 콘텐츠에 반영할 수 있다. 즉, 추정되는 얼굴 정체성값(wid)와 얼굴 표정값(wexp)의 특성값을 강조하여 3D 얼굴 모델에 반영되도록 할 수 있는 것이다.On the other hand, restoring the face shown in the image to the 3D face model is to estimate the face identity value (w id ) and the facial expression value (w exp ). The estimated facial identity value (w id ) is represented by a consecutive numerical value of the characteristics of the face (wide face, long face, face with high nose height, low face, long face with long face, etc.) . At this time, it is possible to emphasize the characteristics of the reconstructed face model by increasing or decreasing the conspicuous value (for example, very large or very small value) among the numerical values (for example, People can be shorter). Accordingly, the user's facial characteristics can be emphasized and modified to match the color and style of the contents according to the above process. That is, the feature values of the estimated face identity value (w id ) and the facial expression value (w exp ) can be emphasized and reflected in the 3D face model.

한편, 본 발명의 또 다른 실시예에서는 콘텐츠 상에 이미 그려져(존재하고) 있는 얼굴 특성을 분석하여 사용자의 얼굴 특성이 콘텐츠 상에 이미 그려져 있는 얼굴 특성에 맞도록 변경하여 반영할 수도 있을 것이다. 따라서 복원된 사용자의 얼굴 정보에서, 두드러진 사용자의 얼굴 특성요소를 강조하는 것이 아니라, 콘텐츠 상에 이미 그려져(존재하고) 있는 얼굴의 특성 요소를 복원된 사용자의 얼굴 정보에 강조할 수도 있다. 예를 들어, 사용자의 얼굴이 둥근 얼굴 형태이지만, 동화 콘텐츠 상에 존재했던 얼굴은 긴 얼굴 형태였다면, 복원된 사용자의 얼굴 형태를 약간 길게 반영을 해서 동화 콘텐츠에 존재했던 얼굴과 유사한 형태로 동화 콘텐츠 상에 이입을 하는 것이 더 어울리기 때문이다. Meanwhile, in another embodiment of the present invention, facial characteristics that are already drawn (existing) on the content may be analyzed and the facial characteristics of the user may be changed to reflect the facial characteristics already drawn on the content. Therefore, in the restored face information of the user, it is possible not to emphasize the facial characteristic element of the prominent user, but to emphasize the facial characteristic element of the face that is already drawn (existing) on the contents to the restored face information of the user. For example, if the face of the user is a round face but the face existing on the fairytale content is a long face, the face shape of the restored user is reflected for a long time, This is because it is better to transfer to the top.

도 10은 본 발명의 실시예에 따라 동화화된 3차원 캐릭터 얼굴을 생성하는 것을 예시한 그림이다.FIG. 10 is a diagram illustrating creation of a three-dimensional character face that has been animated according to an embodiment of the present invention.

도 10(a)는 사용자의 입력된 얼굴 영상을 예시하고, 도 10(b)는 입력된 사용자의 얼굴 영상으로부터 복원된 3차원 얼굴 영상을 예시하고, 도 10(c)는 분석 복원된 얼굴 영상을 콘텐츠의 색상과 스타일에 어울리도록 가공 변형한 것을 예시하고, 도 10(d)는 분석 복원된 얼굴 영상에서 얼굴 특성을 강조하여 가공 변형한 것을 예시하며, 도 10(e)는 분석 복원된 얼굴 영상에서 얼굴 표정을 가공 변형한 후 이를 반영하여 콘텐츠 상에 투영한 것을 예시한 그림이다.FIG. 10 (a) illustrates an input face image of a user, FIG. 10 (b) illustrates a reconstructed three-dimensional face image from a face image of an input user, FIG. 10 (d) illustrates an example in which the face characteristic is emphasized in the analysis restored face image, and FIG. 10 (e) This is an illustration that the facial expression is processed and transformed in the image and reflected on the content.

상술한 본 발명의 설명에서의 실시예는 여러 가지 실시가능한 예중에서 당업자의 이해를 돕기 위하여 가장 바람직한 예를 선정하여 제시한 것으로, 이 발명의 기술적 사상이 반드시 이 실시예만 의해서 한정되거나 제한되는 것은 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 변화와 변경 및 균등한 타의 실시예가 가능한 것이다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. It is intended that the present invention cover the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents.

110:얼굴 기준값 저장 모델
120:스토리텔링 콘텐츠 저장부
130:사용자 얼굴 영상 생성부
140:사용자 얼굴 분석부
150:스토리텔링 콘텐츠 진행부
110: Face value storage model
120: Storytelling content storage unit
130: User face image generation unit
140: user facial analysis unit
150: Storytelling Content Progressive Department

Claims (16)

스토리텔링에서 사용되는 스토리텔링 콘텐츠를 구비한 스토리텔링 콘텐츠 저장부;
스토리텔링 콘텐츠를 즐기는 사용자의 얼굴을 촬영하여 사용자 얼굴 영상을 생성하는 사용자 얼굴 영상 생성부;
각 기준 얼굴의 얼굴 형상을 연속된 수치값으로 표현한 얼굴 정체성값과, 각 기준 얼굴의 얼굴 표정을 연속된 수치값으로 표현한 얼굴 표정값이 요소화된 얼굴 모델이 저장되어 있는 얼굴 기준값 저장 모델;
상기 사용자 얼굴 영상과 매칭되는 얼굴 정체성값과 얼굴 표정값을 상기 얼굴 기준값 저장 모델을 기반으로 추정하여 사용자 얼굴 정체성값과 사용자 얼굴 표정값으로 결정하는 사용자 얼굴 분석부; 및
상기 사용자 얼굴 정체성값과 상기 사용자 얼굴 표정값을 반영하여 상기 사용자 얼굴 영상을 가공하고, 상기 가공된 사용자 얼굴 영상을 이입하여 스토리텔링 콘텐츠로서 출력하는 스토리텔링 콘텐츠 진행부;를 포함하되,
상기 사용자 얼굴 분석부는, 상기 사용자 얼굴 영상의 픽셀값을 이용하여 사용자 얼굴의 피부 색상 분포를 파악하고, 출력중인 스토리텔링 콘텐츠의 색상, 스타일 및 질감에 맞춰 사용자 얼굴의 피부 색상 분포와 질감을 변형하고,
상기 스토리텔링 콘텐츠 진행부는, 상기 변형된 사용자 얼굴의 피부 색상 분포와 질감을 상기 가공된 사용자 얼굴 영상에 반영하여 상기 스토리텔링 콘텐츠를 출력하는 것을 특징으로 하는, 스토리텔링 콘텐츠 툴 제공 단말기.
A storytelling contents storage unit having storytelling contents used in storytelling;
A user facial image generating unit for capturing a face of a user enjoying the storytelling contents to generate a user facial image;
A face reference value storage model in which a face identity representing a face shape of each reference face is represented by successive numerical values and a face expression value representing a facial expression value expressed by successive numerical values of each reference face is stored;
A user facial analysis unit for estimating a face identity value and a facial expression value matching with the user facial image based on the face reference value storage model and determining the user facial identity value and the user facial expression value; And
And a storytelling content advancing unit for processing the user's face image by reflecting the user's face identity value and the user's facial expression value, and transmitting the processed user's face image as a storytelling content,
The user facial analysis unit analyzes the skin color distribution of the user's face using the pixel values of the user facial image and transforms the skin color distribution and texture of the user's face in accordance with the color, ,
Wherein the storytelling content progress unit reflects the skin color distribution and texture of the modified user's face on the processed user face image to output the storytelling content.
청구항 1에 있어서, 상기 스토리텔링 콘텐츠 진행부는,
상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 상기 스토리텔링 콘텐츠의 얼굴 모델에 과장 및 변형시켜 반영하여 출력하는 스토리텔링 콘텐츠 툴 제공 단말기.
The contents processing system according to claim 1,
And outputting the user facial identity value and the user facial expression value to the facial model of the storytelling contents, and reflecting the result.
삭제delete 청구항 1에 있어서, 상기 스토리텔링 콘텐츠 진행부는,
사용자의 신상정보에 맞추어서 자막 콘텐츠를 수정하여 출력함을 특징으로 하는 스토리텔링 콘텐츠 툴 제공 단말기.
The contents processing system according to claim 1,
And outputting the modified subtitle contents according to the user's personal information.
청구항 1에 있어서, 상기 스토리텔링 콘텐츠 툴 제공 단말기는,
스토리텔링 콘텐츠를 즐기는 사용자가 아닌 다른 사람의 얼굴 정보를 스토리텔링 콘텐츠 서버로부터 수신하여 타인 얼굴 정보로서 저장하는 타인 얼굴 정보 모델;을 포함하며,
상기 스토리텔링 콘텐츠 진행부는, 상기 타인 얼굴 정보가 반영된 타인 얼굴 모델을 상기 가공된 사용자 얼굴 영상과 함께 스토리텔링 콘텐츠에 출력함을 특징으로 하는 스토리텔링 콘텐츠 툴 제공 단말기.
The storytelling contents tool providing terminal of claim 1,
And a third person's face information model for receiving face information of a person other than the user who enjoys the storytelling contents from the storytelling contents server and storing the received face information as third person's face information,
Wherein the storytelling content progressing unit outputs the other's face model reflecting the other's face information to the storytelling contents together with the processed user's face image.
청구항 1에 있어서, 상기 스토리텔링 콘텐츠 툴 제공 단말기는,
출력된 스토리텔링 콘텐츠를 프린팅 가능한 다큐먼트 파일로 변환하는 변환출력부를 더 포함하는 스토리텔링 콘텐츠 툴 제공 단말기.
The storytelling contents tool providing terminal of claim 1,
And a conversion output unit for converting the outputted storytelling contents into a printable document file.
(a) 스토리텔링 콘텐츠를 즐기는 사용자의 얼굴을 촬영하여 사용자 얼굴 영상을 생성하는 과정;
(b) 상기 사용자 얼굴 영상과 얼굴 기준값 저장 모델을 매칭하여, 사용자 얼굴 형상을 연속된 수치값으로 표현한 사용자 얼굴 정체성값과, 사용자 얼굴 표정을 연속된 수치값으로 표현한 사용자 얼굴 표정값을 결정하는 과정; 및
(c) 상기 사용자 얼굴 정체성값과 상기 사용자 얼굴 표정값을 반영하여 상기 사용자 얼굴 영상을 가공하고, 상기 가공된 사용자 얼굴 영상을 이입하여 스토리텔링 콘텐츠로서 출력하는 과정을 포함하되,
상기 (c) 과정은,
(c1) 상기 사용자 얼굴 영상의 픽셀값을 이용하여 사용자 얼굴의 피부 색상 분포를 파악하고, 출력중인 스토리텔링 콘텐츠의 색상, 스타일 및 질감에 맞춰 사용자 얼굴의 피부 색상 분포와 질감을 변형하는 과정; 및
(c2) 상기 변형된 사용자 얼굴의 피부 색상 분포와 질감을 상기 가공된 사용자 얼굴 영상에 반영하여 상기 스토리텔링 콘텐츠를 출력하는 과정을 포함하며,
상기 얼굴 기준값 저장 모델은 각 기준 얼굴의 얼굴 형상을 연속된 수치값으로 표현한 얼굴 정체성값과, 각 기준 얼굴의 얼굴 표정을 연속된 수치값으로 표현한 얼굴 표정값이 요소화된 얼굴 모델이 저장되어 있는 것을 특징으로 하는, 스토리텔링 콘텐츠 제공 방법.
(a) a step of photographing a face of a user enjoying the storytelling contents to generate a user face image;
(b) determining a face facial expression value of a user expressing the user facial expression as a continuous numerical value by matching the user facial image and the face reference value storage model to represent the user facial shape as a continuous numerical value, ; And
(c) processing the user's face image reflecting the user's face identity value and the user's facial expression value, and transmitting the processed user's face image as a storytelling content,
The step (c)
(c1) determining a skin color distribution of the user's face using the pixel value of the user's face image, and transforming the skin color distribution and texture of the user's face according to the color, style, and texture of the storytelling content being output; And
(c2) reflecting the skin color distribution and texture of the deformed user's face on the processed user face image to output the story telling contents,
The face reference value storage model stores a face identity value obtained by expressing the face shape of each reference face as a continuous numerical value and a facial expression value representing a facial expression value expressed by successive numerical values of the facial expression of each reference face Wherein the story-telling content providing method comprises the steps of:
청구항 7에 있어서,
상기 얼굴 기준값 저장 모델은, 얼굴 형상별로 그리고 표정별로 촬영된 다양한 사람들의 얼굴 영상 데이터로부터 PCA(Principal Component Analysis), SVD(Singular Value Decomposition), HOSVD(High Order Singular Value Decomposition) 중 적어도 하나를 포함하는 데이터 분석 방법을 통해 데이터의 얼굴 정보를 얼굴 정체성값과 얼굴 표정값의 연속된 수치값으로 요소화시켜 구축된 것을 특징으로 하는 스토리텔링 콘텐츠 제공 방법
The method of claim 7,
The face reference value storage model includes at least one of Principal Component Analysis (PCA), Singular Value Decomposition (SVD), and High Order Singular Value Decomposition (HOSVD) from face image data of various people photographed for each face shape and facial expression Wherein the facial information of the data is constructed by elementizing the facial information of the data by the continuous numerical value of the facial identity value and the facial expression value through the data analysis method
청구항 7에 있어서, 상기 (c) 과정은,
상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 3D 얼굴 모델에 반영하거나, 또는 상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 2D 얼굴 모델에 반영하여 상기 스토리텔링 콘텐츠에 출력하는 스토리텔링 콘텐츠 제공 방법.
The method of claim 7, wherein the step (c)
Reflecting the user facial identity value and the user facial expression value to the 3D facial model or reflecting the user facial identity value and the user facial expression value to the 2D facial model to output to the storytelling contents.
청구항 9에 있어서, 상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 상기 3D 얼굴 모델에 반영하는 것은,
V는 3D 얼굴 모델, C는 상기 얼굴 기준값 저장 모델로부터 학습한 얼굴 특징 분포 핵심 구조 모델, wid는 사용자 얼굴 정체성값, wexp는 사용자 얼굴 표정값이라 할 때, V=g(C,wid,wexp) 함수를 이용하여 반영하는 것을 특징으로 하는 스토리텔링 콘텐츠 제공 방법.
The method of claim 9, wherein reflecting the user facial identity value and the user facial expression value to the 3D facial model comprises:
V is a 3D face model, C is when the core structure model learning facial feature distribution from the face reference value storage model, w id is user face identity value, w exp user facial expression value, V = g (C, w id , w exp ) function.
청구항 10에 있어서, 상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 상기 3D 얼굴 모델에 반영하는 것은,
얼굴 정체성값(wid)와 얼굴 표정값(wexp)의 특성값을 강조하여 3D 얼굴 모델에 반영하는 것을 특징으로 하는 스토리텔링 콘텐츠 제공 방법.
11. The method of claim 10, wherein reflecting the user facial identity value and the user facial expression value to the 3D facial model comprises:
Wherein the characteristic values of the face identity value (w id ) and the face expression value (w exp ) are emphasized and reflected in the 3D face model.
청구항 10에 있어서, 상기 (c) 과정은,
상기 V=g(C,wid,wexp) 함수가 반영된 3D 얼굴 모델(V)을 화면상에 출력할 경우, F는 3D 얼굴 모델이 2차원 화면에 투영되어 출력되는 모델, s는 얼굴의 크기를 조정하는 얼굴 크기 정보, MP(f)는 3D 위치를 화면상의 2D 위치로 매핑하는 카메라 함수, R은 얼굴을 회전시키는 얼굴 회전 정보, T는 얼굴의 위치를 이동시키는 얼굴 위치 정보라 할 때,
Figure 112018077346022-pat00046

에 의해 산출되는 모델을 화면에 출력하는 것을 특징으로 하는 스토리텔링 콘텐츠 제공 방법.
11. The method of claim 10, wherein the step (c)
In the case of outputting a 3D face model (V) reflecting the function V = g (C, w id , w exp ) on the screen, F is a model in which a 3D face model is projected on a two- (F) is a camera function for mapping the 3D position to the 2D position on the screen, R is the face rotation information for rotating the face, and T is the face position information for moving the position of the face time,
Figure 112018077346022-pat00046

And outputting the model calculated by the modeling unit to the screen.
청구항 9에 있어서, 상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 2D 얼굴 모델에 반영하는 것은,
2차원으로 투영된 얼굴 기준값 저장 모델에 상기 사용자 얼굴 영상에서 분석된 얼굴 정체성값과 얼굴 표정값을 반영하는 것을 특징으로 하는 스토리텔링 콘텐츠 제공 방법.
The method of claim 9, wherein reflecting the user facial identity value and the user facial expression value to the 2D facial model comprises:
Wherein the facial identity value and the facial expression value analyzed in the user facial image are reflected in the two-dimensionally projected face reference value storage model.
청구항 7에 있어서, 상기 (c) 과정 이전에,
얼굴 정체성값 및 표정값 결정 과정으로부터 유추한 사용자의 얼굴정보의 특성을 과장하거나 사용자 얼굴 정보의 피부 정보를 포함한 질감정보를 스토리텔링 콘텐츠의 질감과 어울리게 재가공하는 사용자 얼굴 정보 재가공 과정;을 포함하는 스토리텔링 콘텐츠 제공 방법.
8. The method of claim 7, wherein, prior to step (c)
A step of re-processing the user's face information which exaggerates the characteristics of the user's facial information derived from the facial identity value and the facial expression determination process or re-processes the texture information including the skin information of the user's face information to match the texture of the story telling contents. How to provide teled content.
청구항 7에 있어서, 상기 스토리텔링 콘텐츠 제공 방법은,
출력된 스토리텔링 콘텐츠를 프린팅 가능한 다큐먼트 파일로 변환하는 과정을 더 포함하는 스토리텔링 콘텐츠 제공 방법.
The method according to claim 7,
And converting the outputted storytelling contents into a printable document file.
청구항 7에 있어서, 상기 (c) 과정은,
m은 얼굴 정체성값(wid), 얼굴 표정값(wexp), 얼굴 크기 정보에서의 크기값(s), 얼굴 위치 정보에서의 병진값(tx,ty), 얼굴 회전 정보에서의 회전값(rx,ry,rz), 카메라 초점거리(f)를 포함하는 구성요소의 집합이고,
F는 m의 요소로부터 생성되는 2차원 영상에 투영된 모델, I는 입력 영상, V는 얼굴 정체성값(wid)과 얼굴 표정값(wexp)으로 요소화된 3D 얼굴 모델, x2d와 x3d는 각각 입력된 모델에서 기정의된 특징점의 위치를 추출하는 함수, A는 3D 얼굴 모델의 텍스쳐(texture) 학습 모델,
Figure 112018077346022-pat00047
는 입력 정보로부터 구별되는 특징(feature)를 추출하는 특징 추출 연산자라고 할 때,
Figure 112018077346022-pat00048

에 의해 상기 사용자 얼굴 정체성값과 상기 사용자 얼굴 표정값이 결정되는 것을 특징으로 하는 스토리텔링 콘텐츠 제공 방법.
The method of claim 7, wherein the step (c)
m represents the face identity value (w id ), the facial expression value (w exp ), the size value (s) in the face size information, the translation value (t x , t y ) Is a set of components including values r x , r y , r z , and camera focal length f,
F is a model projected on a two-dimensional image generated from the elements of m, I is an input image, V is a 3D face model elementized by a face identity value (w id ) and a facial expression value (w exp ), x 2d and x 3d is a function for extracting the positions of predetermined feature points in the input model, A is a texture learning model of the 3D face model,
Figure 112018077346022-pat00047
Is a feature extraction operator that extracts features distinguished from input information,
Figure 112018077346022-pat00048

Wherein the user's face identification value and the user's facial expression value are determined by the user's face identification value.
KR1020170114563A 2017-09-07 2017-09-07 Terminal for providing storytelling contents tool and Method for providing storytelling KR101902553B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170114563A KR101902553B1 (en) 2017-09-07 2017-09-07 Terminal for providing storytelling contents tool and Method for providing storytelling

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170114563A KR101902553B1 (en) 2017-09-07 2017-09-07 Terminal for providing storytelling contents tool and Method for providing storytelling

Publications (1)

Publication Number Publication Date
KR101902553B1 true KR101902553B1 (en) 2018-09-28

Family

ID=63721647

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170114563A KR101902553B1 (en) 2017-09-07 2017-09-07 Terminal for providing storytelling contents tool and Method for providing storytelling

Country Status (1)

Country Link
KR (1) KR101902553B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102180576B1 (en) * 2020-05-18 2020-11-18 주식회사 일루니 Method and apparatus for providing re-programmed interactive content based on user playing
KR102318111B1 (en) * 2020-11-17 2021-10-27 주식회사 일루니 Method and apparatus for generating story book which provides sticker reflecting user's face to character
WO2024091021A1 (en) * 2022-10-26 2024-05-02 삼성전자 주식회사 Electronic device and operating method therefor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011034344A (en) * 2009-07-31 2011-02-17 Fujifilm Corp Image processing apparatus and method, data processing device and method, and program
KR101734212B1 (en) * 2015-11-26 2017-05-11 포항공과대학교 산학협력단 Facial expression training system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011034344A (en) * 2009-07-31 2011-02-17 Fujifilm Corp Image processing apparatus and method, data processing device and method, and program
KR101734212B1 (en) * 2015-11-26 2017-05-11 포항공과대학교 산학협력단 Facial expression training system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102180576B1 (en) * 2020-05-18 2020-11-18 주식회사 일루니 Method and apparatus for providing re-programmed interactive content based on user playing
WO2021235636A1 (en) * 2020-05-18 2021-11-25 주식회사 일루니 Method and apparatus for providing interactive content reprogrammed on basis of playing of user
US11402975B2 (en) 2020-05-18 2022-08-02 Illuni Inc. Apparatus and method for providing interactive content
KR102318111B1 (en) * 2020-11-17 2021-10-27 주식회사 일루니 Method and apparatus for generating story book which provides sticker reflecting user's face to character
US11282275B1 (en) 2020-11-17 2022-03-22 Illuni Inc. Apparatus and method for generating storybook
WO2022107980A1 (en) * 2020-11-17 2022-05-27 주식회사 일루니 Method and device for generating storybook provided with sticker reflecting user face in character
WO2024091021A1 (en) * 2022-10-26 2024-05-02 삼성전자 주식회사 Electronic device and operating method therefor

Similar Documents

Publication Publication Date Title
US11790589B1 (en) System and method for creating avatars or animated sequences using human body features extracted from a still image
CN108573527B (en) Expression picture generation method and equipment and storage medium thereof
Mattheyses et al. Audiovisual speech synthesis: An overview of the state-of-the-art
US7027054B1 (en) Do-it-yourself photo realistic talking head creation system and method
US11783524B2 (en) Producing realistic talking face with expression using images text and voice
US6919892B1 (en) Photo realistic talking head creation system and method
Ersotelos et al. Building highly realistic facial modeling and animation: a survey
Chuang et al. Mood swings: expressive speech animation
US8553037B2 (en) Do-It-Yourself photo realistic talking head creation system and method
KR101306221B1 (en) Method and apparatus for providing moving picture using 3d user avatar
CN113256821B (en) Three-dimensional virtual image lip shape generation method and device and electronic equipment
US20120130717A1 (en) Real-time Animation for an Expressive Avatar
CN113538659B (en) Image generation method, device, storage medium and equipment
Alkawaz et al. Blend shape interpolation and FACS for realistic avatar
KR101902553B1 (en) Terminal for providing storytelling contents tool and Method for providing storytelling
Theobald et al. Near-videorealistic synthetic talking faces: Implementation and evaluation
Paier et al. Example-based facial animation of virtual reality avatars using auto-regressive neural networks
CN112511853A (en) Video processing method and device, electronic equipment and storage medium
Wampler et al. Dynamic, expressive speech animation from a single mesh
Perng et al. Image talk: a real time synthetic talking head using one single image with chinese text-to-speech capability
Müller et al. Realistic speech animation based on observed 3-D face dynamics
CN116524087A (en) Audio-driven speaker video synthesis method and system for fusing nerve radiation field
Zell et al. Volumetric video-acquisition, compression, interaction and perception
Wang et al. Hierarchical facial expression animation by motion capture data
Tiddeman et al. Prototyping and transforming visemes for animated speech

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant