KR101902553B1 - Terminal for providing storytelling contents tool and Method for providing storytelling - Google Patents
Terminal for providing storytelling contents tool and Method for providing storytelling Download PDFInfo
- Publication number
- KR101902553B1 KR101902553B1 KR1020170114563A KR20170114563A KR101902553B1 KR 101902553 B1 KR101902553 B1 KR 101902553B1 KR 1020170114563 A KR1020170114563 A KR 1020170114563A KR 20170114563 A KR20170114563 A KR 20170114563A KR 101902553 B1 KR101902553 B1 KR 101902553B1
- Authority
- KR
- South Korea
- Prior art keywords
- face
- user
- value
- facial
- model
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 71
- 230000008921 facial expression Effects 0.000 claims abstract description 130
- 238000003860 storage Methods 0.000 claims abstract description 41
- 238000004458 analytical method Methods 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 claims abstract description 11
- 230000002250 progressing effect Effects 0.000 claims abstract description 10
- 230000001815 facial effect Effects 0.000 claims description 163
- 230000008569 process Effects 0.000 claims description 37
- 238000009826 distribution Methods 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 21
- 238000000513 principal component analysis Methods 0.000 claims description 12
- 238000000354 decomposition reaction Methods 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 7
- 238000007405 data analysis Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 2
- 238000013519 translation Methods 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims 1
- 230000014509 gene expression Effects 0.000 description 16
- 238000013528 artificial neural network Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 13
- 230000008451 emotion Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000012958 reprocessing Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 241000228740 Procrustes Species 0.000 description 2
- 230000003416 augmentation Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 210000001097 facial muscle Anatomy 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000007639 printing Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 210000000216 zygoma Anatomy 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
-
- G06K9/00221—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Resources & Organizations (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- Computer Security & Cryptography (AREA)
- Economics (AREA)
- Signal Processing (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 스토리텔링 콘텐츠 툴 제공 단말기 및 스토리텔링 콘텐츠 제공 방법으로서, 본 발명은 사용자(어린아이)가 모바일 디바이스 상에서 (아동용)콘텐츠를 감상할 때, 사용자가 콘텐츠의 주인공이 되어 콘텐츠에 등장하고, 시스템이 사용자의 콘텐츠 사용 정보를 분석하여 콘텐츠를 추천 및 진행해 나갈 수 있게 해주는 시스템에 관한 것이다.The present invention relates to a storytelling content tool providing terminal and a storytelling content providing method. The present invention relates to a storytelling content tool providing terminal and a storytelling content providing method, in which a user (child) And a system that allows the system to analyze user's content usage information and recommend and proceed with the content.
많은 사람들이 트릭아트, 코스플레이, 얼굴 변환·수정 어플리케이션 등을 사용하면서 미디어 콘텐츠의 주인공이 되고자 한다. 이러한 행위는 사람들에게 즐거움을 주며 사용자가 콘텐츠에 더욱 몰입 경험을 할 수 있도록 해준다.Many people want to be the protagonists of media content while using trick art, course play, face conversion and modification applications. This behavior gives people pleasure and allows users to experience more immersive content.
특히 어린 아이들은 어린이 동화책, 어린이 동영상을 즐겨 시청하며 그 안에 등장하는 인물들을 많이 따라 한다.In particular, young children enjoy children's storybooks, children's videos, and follow a lot of characters in them.
사용자에게 더욱 실감나는 경험을 제공해주기 위해서 더욱 정확한 사용자 캡쳐 알고리즘과 그에 따른 실감나는 영상 표현 기술이 요구된다. 또한 사용자의 사용 정보에 기반한 개인 특성화된(personalized) 콘텐츠 진행 전략도 필요하다.In order to provide a more realistic experience to users, more accurate user capture algorithms and corresponding realistic image presentation technologies are required. There is also a need for a personalized content delivery strategy based on user usage information.
종래의 기술 및 시스템은 이런 사용자들의 필요(needs)를 충족하기 위해 거울을 이용한 종이 동화책, 사용자가 제출한 얼굴 사진을 기반으로 한 얼굴 동화 영상 제작 후 배송, 사용자가 입력한 얼굴 사진을 기반으로 한 간단한 영상 콘텐츠 실시간 생성, 사용자의 얼굴 영상을 실시간으로 촬영 및 분석하여 증강데이터를 입혀 편집하는 시스템 등을 제공하고 있다.Conventional technologies and systems are based on a paper assortment using mirrors, a post-production of a facial animation image based on a user-submitted facial photograph, and a facial photograph input by the user to satisfy the needs of such users It provides simple real-time image content creation, system that captures and analyzes face images of users in real time, and adds and edits the enhancement data.
이러한 경우, 다음과 같은 사용자의 필요를 충족하지 못하는 문제가 있다.In such a case, there is a problem that the user does not meet the following requirements.
거울을 이용한 종이 동화책의 경우 동화책이 나타내는 콘텐츠만을 사용자가 사용 가능하다. 사용자가 제출한 얼굴 사진을 기반으로 한 얼굴 동화 영상 제작 및 배송 시스템은 사용자가 결과 영상을 바로 감상 및 시청하지 못한다. 사용자가 입력한 얼굴 사진을 기반으로 한 간단한 영상 콘텐츠 실시간 생성 시스템의 경우 기존의 시스템은 현재 사용자의 표정과 감정까지 실시간으로 이입하지 않고 정해진 틀에 맞춰서 얼굴 정보가 변형되게 한다. 사용자의 얼굴 영상을 실시간으로 촬영 및 분석해서 증강데이터를 입혀 편집하는 시스템의 경우 얼굴정보에다가 증강데이터를 입히기 때문에 자연스럽기 쉽지만, 얼굴정보를 토대로 단기적인 즐거움을 제공하고 이야기 기반의 장기적인 즐거움을 제공하지 못한다.In the case of a paper assortment using a mirror, only the contents indicated by the assortment can be used by the user. The user does not directly view and view the result image, because the face animation image production and delivery system based on the face photographs submitted by the user. In the case of a simple image content real-time creation system based on a user's input face image, the existing system allows the face information to be modified according to a predetermined frame without real-time transfer to the facial expression and emotion of the current user. In the system for photographing and analyzing the user's face image in real time and adding and editing the augmentation data, it is natural that the augmentation data is applied to the face information, but it provides short-term enjoyment based on the face information and does not provide long- .
무엇보다, 기존의 기술들은 사용자의 얼굴 정보를 콘텐츠에 자연스럽게 합성을 하지 못하여 부자연스럽다. 또한 단기적인 즐거움을 주는 것에서 끝나며 장기적인 사용자와의 상호작용(interaction)을 통한 교육용 시스템으로써 사용되지 못하고 있다. 또한 기존의 기술은 사용자의 얼굴 정보를 시스템이 스스로 인식해서 자연스럽게 동화책에다가 이입하는 정확한 방법론을 제시하지 못하고, 매뉴얼(manual)로 지정된 얼굴 특징점을 기반으로 얼굴 이미지를 추출해서 동화책에 붙여 넣는다.Above all, existing technologies are unnatural because they can not naturally synthesize user's face information into content. It also ends with short-term enjoyment and is not being used as an educational system through interaction with long-term users. In addition, the existing technology does not provide an accurate methodology in which the system recognizes the user's facial information and naturally inserts it into a storybook, and extracts the facial image based on the manual facial feature point and pastes it into the storybook.
본 발명의 기술적 과제는 자연스럽게 사용자의 얼굴 정보 및 사용자의 이름 정보를 스토리텔링 콘텐츠에 이입하여 사용자가 실감나게 주인공이 된 것과 같은 느낌을 제공하는 것에 있다. 본 발명이 해결하고자 하는 다른 과제는 사용자가 스토리텔링 콘텐츠에서 경험한 정보를 분석하여 사용자에게 맞는 교육 콘텐츠를 추천 및 진행해 나갈수 있는 시스템을 제공하는 것에 있다.The technical problem of the present invention is to naturally transmit user's face information and user's name information to storytelling contents to provide a feeling that the user becomes real and feel like a main character. Another problem to be solved by the present invention is to provide a system for analyzing information experienced by a user in storytelling contents and recommending and proceeding educational contents suitable for a user.
본 발명의 실시 형태는 스토리텔링에서 사용되는 스토리텔링 콘텐츠를 구비한 스토리텔링 콘텐츠 저장부; 스토리텔링 콘텐츠를 즐기는 사용자의 얼굴을 촬영하여 사용자 얼굴 영상을 생성하는 사용자 얼굴 영상 생성부; 각 기준 얼굴의 얼굴 형상을 연속된 수치값으로 표현한 얼굴 정체성값과, 각 기준 얼굴의 얼굴 표정을 연속된 수치값으로 표현한 얼굴 표정값이 요소화된 얼굴 모델이 저장되어 있는 얼굴 기준값 저장 모델; 상기 사용자 얼굴 영상 생성부를 통해 생성되는 사용자 얼굴 영상과 매칭되는 얼굴 정체성값과 얼굴 표정값을 상기 얼굴 기준값 저장 모델을 기반으로 추정하여 사용자 얼굴 정체성값과 사용자 얼굴 표정값으로 결정하는 사용자 얼굴 분석부; 및 상기 사용자 얼굴 분석부를 통해 결정되는 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 반영하여 사용자 얼굴 영상을 가공해 스토리텔링 콘텐츠로서 출력하는 스토리텔링 콘텐츠 진행부;를 포함할 수 있다.An embodiment of the present invention relates to a storytelling content storage unit having a storytelling content used in storytelling; A user facial image generating unit for capturing a face of a user enjoying the storytelling contents to generate a user facial image; A face reference value storage model in which a face identity representing a face shape of each reference face is represented by successive numerical values and a face expression value representing a facial expression value expressed by successive numerical values of each reference face is stored; A user facial analysis unit for estimating a face identity value and a facial expression value matching with a user facial image generated through the user facial image generation unit based on the face reference value storage model and determining the user facial identity value and the user facial expression value; And a storytelling content advancing unit for processing the user's face image by reflecting the user's face identity value and the user's facial expression value determined through the user's facial analysis unit and outputting the user's facial image as a storytelling content.
상기 스토리텔링 콘텐츠 진행부는, 상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 상기 스토리텔링 콘텐츠의 얼굴 모델에 과장 및 변형시켜 반영하여 출력할 수 있다.The storytelling content progressing unit may exaggerate and transform the user's face identity value and the user's facial expression value to the face model of the storytelling content, and output the same.
상기 사용자 얼굴 분석부는, 상기 사용자 얼굴 영상 생성부를 통해 생성되는 사용자 얼굴 영상의 픽셀값을 이용하여 사용자 얼굴 피부 색상 분포를 파악하며, 상기 스토리텔링 콘텐츠 진행부에서 출력중인 스토리텔링 콘텐츠의 색상 분포와 스타일에 맞게 분석된 사용자 얼굴 피부 색상 분포를 변형하며, 상기 스토리텔링 콘텐츠 진행부는, 상기 3D 얼굴 모델에 사용자 얼굴 피부 색상 분포를 또는 콘텐츠와 어울리게 변형된 사용자 얼굴 피부 색상 분포를 반영하여 출력할 수 있다.Wherein the user facial analysis unit grasps a face skin color distribution of a user using a pixel value of a user facial image generated through the user facial image generation unit and determines a color distribution of the storytelling contents output from the storytelling content progress unit, And the storytelling content progress unit may output the user's facial skin color distribution to the 3D facial model or the user's facial skin color distribution corresponding to the content to reflect the user facial skin color distribution.
상기 스토리텔링 콘텐츠 진행부는, 사용자의 신상정보에 맞추어서 자막 콘텐츠를 수정하여 출력할 수 있다.The storytelling contents progress section may modify and output the subtitle contents in accordance with the user's personal information.
상기 스토리텔링 콘텐츠 툴 제공 단말기는, 스토리텔링 콘텐츠를 즐기는 사용자가 아닌 다른 사람의 얼굴 정보를 스토리텔링 콘텐츠 서버로부터 수신하여 타인 얼굴 정보로서 저장하는 타인 얼굴 정보 모델;을 포함하며, 상기 스토리텔링 콘텐츠 진행부는, 상기 타인 얼굴 정보가 반영된 타인 3D 얼굴 모델을 상기 사용자의 3D 얼굴 모델과 함께 스토리텔링 콘텐츠에 출력할 수 있다.The storytelling contents tool providing terminal includes a face information model for a person who receives face information of a person other than the user who enjoys the storytelling contents from the storytelling contents server and stores the face information as the face information of the other person, The controller may output the tethered 3D face model reflecting the tether face information together with the 3D face model of the user to the storytelling contents.
상기 스토리텔링 콘텐츠 툴 제공 단말기는, 출력된 스토리텔링 콘텐츠를 프린팅 가능한 다큐먼트 파일로 변환하는 변환출력부를 더 포함할 수 있다.The storytelling contents tool providing terminal may further include a conversion output unit for converting the output storytelling contents into a printable document file.
또한, 본 발명의 실시 형태는, 스토리텔링 콘텐츠를 즐기는 사용자의 얼굴을 촬영하여 사용자 얼굴 영상을 생성하는 사용자 얼굴 영상 생성 과정; 촬영되는 사용자 얼굴 영상을 이용하여, 사용자 얼굴 형상을 연속된 수치값으로 표현한 사용자 얼굴 정체성값과, 사용자 얼굴 표정을 연속된 수치값으로 표현한 사용자 얼굴 표정값을 결정하는 사용자 얼굴 정체성값 및 표정값 결정 과정; 및 상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 반영하여 상기 스토리텔링 콘텐츠에 출력하는 스토리텔링 콘텐츠 출력 과정;을 포함할 수 있다.Further, an embodiment of the present invention is a user face image generating process for capturing a face of a user enjoying a storytelling content to generate a user face image; Determining the user's face identity value and the facial expression value for determining the user's facial expression value representing the user's facial expression as a continuous numerical value by using the captured user's facial image, process; And outputting the user's face identity value and the user's facial expression value to the storytelling contents to output the storytelling contents.
각 기준 얼굴의 얼굴 표정을 연속된 수치값으로 표현한 얼굴 표정값과 각 기준 얼굴의 얼굴 형상을 연속된 수치값으로 표현한 얼굴 정체성값이 기준 얼굴별로 할당되어 있는 얼굴 기준값 저장 모델이 구비되어 있으며,There is provided a face reference value storage model in which a face expression value expressed by successive numerical values of each facial expression of each reference face and a face identity value representing a face shape of each reference face by continuous numerical values are assigned for each reference face,
상기 얼굴 기준값 저장 모델은, 얼굴 형상별로 그리고 표정별로 촬영된 다양한 사람들의 얼굴 영상 데이터로부터 PCA(Principal Component Analysis), SVD(Singular Value Decomposition), HOSVD(High Order Singular Value Decomposition) 중 적어도 하나를 포함하는 데이터 분석 방법을 통해 데이터의 얼굴 정보를 얼굴 정체성값과 얼굴 표정값의 연속된 수치값으로 요소화시켜 구축될 수 있다.The face reference value storage model includes at least one of Principal Component Analysis (PCA), Singular Value Decomposition (SVD), and High Order Singular Value Decomposition (HOSVD) from face image data of various people photographed for each face shape and facial expression The facial information of the data can be constructed by factoring the facial identity value and the facial expression value into consecutive numerical values through a data analysis method.
상기 스토리텔링 콘텐츠 출력 과정은, 상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 3D 얼굴 모델에 반영하거나, 또는 상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 2D 얼굴 모델에 반영하여 상기 스토리텔링 콘텐츠에 출력할 수 있다.The storytelling content output process may reflect the user's face identity value and the user's facial expression value in the 3D facial model or reflect the user facial identity value and the user facial expression value in the 2D facial model to output to the storytelling content can do.
상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 상기 3D 얼굴 모델에 반영하는 것은, V는 3D 얼굴 모델, Cr은 상기 얼굴 기준값 저장 모델로부터 학습한 얼굴 특징 분포 핵심 구조 모델, wid는 사용자 얼굴 정체성값, wexp는 사용자 얼굴 표정값이라 할 때, V=g(C,wid,wexp) 함수를 이용하여 반영할 수 있다.The user facial identity value and the user facial expression value are reflected in the 3D facial model, where V is a 3D facial model, C r is a facial feature distribution core structure model learned from the facial reference value storage model, w id is a user facial identity Value, and w exp is the user facial expression value, it can be reflected by using the function V = g (C, w id , w exp ).
상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 상기 3D 얼굴 모델에 반영하는 것은, 얼굴 정체성값(wid)와 얼굴 표정값(wexp)의 특성값을 강조하여 3D 얼굴 모델에 반영할 수 있다.The reflection of the user's face identity value and the user's facial expression value on the 3D facial model can be reflected on the 3D facial model by emphasizing the characteristic values of the facial identity value (w id ) and the facial expression value (w exp ).
상기 스토리텔링 콘텐츠 출력 과정은, 상기 V=g(C,wid,wexp) 함수가 반영된 3D 얼굴 모델(V)을 화면상에 출력할 경우, F는 3D 얼굴 모델이 2차원 화면에 투영되어 출력되는 모델, s는 얼굴의 크기를 조정하는 얼굴 크기 정보, MP(f)는 3D 위치를 화면상의 2D 위치로 매핑하는 카메라 함수, R은 얼굴을 회전시키는 얼굴 회전 정보, T는 얼굴의 위치를 이동시키는 얼굴 위치 정보라 할 때, 에 의해 산출되는 모델을 화면에 출력할 수 있다.When outputting the 3D facial model (V) reflecting the function V = g (C, w id , w exp ) on the screen, the 3D facial model is projected on the two-dimensional screen (F) is a camera function that maps the 3D position to the 2D position on the screen, R is face rotation information for rotating the face, T is the position of the face When the face position information is moved, Can be output to the screen.
상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 2D 얼굴 모델에 반영하는 것은, 2차원으로 투영된 얼굴 기준값 저장 모델에 사용자 얼굴 영상에서 분석된 얼굴 정체성값과 얼굴 표정값을 반영할 수 있다.Reflecting the user facial identity value and the user facial expression value into the 2D facial model, the facial identity value and the facial expression value analyzed in the user facial image can be reflected in the two-dimensionally projected face reference value storage model.
상기 방법은, 사용자 얼굴 정체성값 및 표정값 결정 과정이 있은 후 스토리텔링 콘텐츠 출력 과정이 있기 이전에, 얼굴 정체성값 및 표정값 결정 과정으로부터 유추한 사용자의 얼굴정보의 특성을 과장하거나 사용자 얼굴 정보의 피부 정보를 포함한 질감정보를 스토리텔링 콘텐츠의 질감과 어울리게 재가공하는 사용자 얼굴 정보 재가공 과정;을 더 포함할 수 있다. The method may further comprise the step of exaggerating the characteristics of the user's facial information derived from the facial identity value and the facial expression value determination process before the storytelling content output process after the process of determining the user's facial identity value and facial expression value, And a step of re-processing the user's face information that re-processes the texture information including the skin information to match the texture of the story telling contents.
상기 방법은, 출력된 스토리텔링 콘텐츠를 프린팅 가능한 다큐먼트 파일로 변환하는 스코리텔링 콘텐츠 변환 과정을 더 포함할 수 있다.The method may further include a scorer content conversion step of converting the output storytelling content into a printable document file.
상기 사용자 얼굴 영상에서 사용자 얼굴 정체성값과 얼굴 표정값을 결정하는 과정은, m은 얼굴 정체성값(wid), 얼굴 표정값(wexp), 얼굴 크기 정보에서의 크기값(s), 얼굴 위치 정보에서의 병진값(tx,ty), 얼굴 회전 정보에서의 회전값(rx,ry,z), 카메라 초점거리(f)를 포함하는 구성요소의 집합이고, F는 m의 요소로부터 생성되는 2차원 영상에 투영된 모델, I는 입력 영상, V는 얼굴 정체성값(wid)과 얼굴 표정값(wexp)으로 요소화된 3D 얼굴 모델, x2d와 x3d는 각각 입력된 모델에서 기정의된 특징점의 위치를 추출하는 함수, A는 3D 얼굴 모델의 텍스쳐(texture) 학습 모델, 는 입력 정보로부터 구별되는 특징(feature)를 추출하는 특징 추출 연산자라고 할 때, 에 의해 얼굴 정체성값과 얼굴 표정값이 결정되는 것을 특징으로 하는 스토리텔링 콘텐츠 제공 방법.Wherein the step of determining the user's face identity value and the facial expression value in the user facial image comprises the steps of: determining a facial identity value (w id ), a facial expression value (w exp ), a size value (s) rotation of the translational value (t x, t y), the face rotation information of the information (r x, r y, z ), and the set of components including a camera focal length (f), f is a factor of m I is an input image, V is a 3D face model that is elementized by a facial identity value (w id ) and a facial expression value (w exp ), and x 2d and x 3d are input to a two- A function that extracts the location of the feature points in the model, A is a texture learning model of the 3D face model, Is a feature extraction operator that extracts features distinguished from input information, Wherein the face identification value and the facial expression value are determined by the face identification value and the facial expression value.
본 발명은 실시간으로 사용자의 얼굴을 분석하여 얼굴을 재가공 하여 스토리텔링 콘텐츠에 자연스럽게 이입하여 사용자가 주인공인 것처럼 느끼게 하는 콘텐츠를 제공할 수 있다. 또한, 본 발명은 실시간으로 사용자의 표정 및 감정을 분석하여 사용자의 감정을 스토리텔링 콘텐츠에 함께 이입해서 사용자가 더욱 실감나게 스토리텔링 콘텐츠를 경험할 수 있는 기능을 제공한다. 또한, 본 발명은 사용자의 스토리텔링 콘텐츠를 통한 학습 수준을 자동으로 분석을 하여서 사용자에게 학습 수준에 맞는 콘텐츠를 추천해주어 사용자가 더 편하게 콘텐츠를 즐길 수 있는 기능을 제공한다.The present invention can analyze the face of the user in real time and re-process the face to naturally enter the storytelling contents to provide contents that make the user feel like the main character. In addition, the present invention analyzes a user's facial expressions and emotions in real time, and incorporates emotions of the user into the storytelling contents, thereby providing a function of allowing the user to experience the storytelling contents more realistically. In addition, the present invention provides a function of automatically analyzing a learning level through a user's storytelling content, recommending content suitable for a learning level to a user, and allowing a user to enjoy contents more conveniently.
도 1은 본 발명의 실시예에 따른 스토리텔링 콘텐츠 툴 제공 단말기의 구성 블록도이다.
도 2는 본 발명의 실시예에 따라 얼굴 기준값 저장 모델에 저장된 얼굴 정체성과 얼굴 표정을 도시한 그림이다.
도 3은 본 발명의 실시예에 따라 사용자의 3D 얼굴 모델의 반영 전 및 반영 후의 스토리텔링 콘텐츠를 도시한 그림이다.
도 4는 본 발명의 실시예에 따라 스토리텔링 콘텐츠 서버가 마련된 모습을 도시한 그림이다.
도 5는 본 발명의 실시예에 따른 스토리텔링 콘텐츠 제공 과정을 도시한 플로차트이다.
도 6은 본 발명의 실시예에 따라 사용자 얼굴 영상에서 사용자 얼굴 정체값과 사용자 얼굴 특성값이 반영된 3D 얼굴 모델의 모습을 도시한 그림이다.
도 7은 본 발명의 실시예에 따라 3D 얼굴 모델이 회전된 모습을 도시한 그림이다.
도 8은 본 발명의 실시예에 따라 분석된 사용자의 얼굴 모델을 콘텐츠의 색상과 스타일 등 환경에 어울리게 변형하여 콘텐츠 상에 투영하거나 삽입한 것을 예시한 그림이다.
도 9는 얼굴 기준값 저장 모델과 3D 얼굴 모델의 회전 또는 변형을 예시한 도면이다.
도 10은 본 발명의 실시예에 따라 동화화된 3차원 캐릭터 얼굴을 생성하는 것을 예시한 그림이다.1 is a configuration block diagram of a storytelling contents tool providing terminal according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating facial identities and facial expressions stored in a face reference value storage model according to an embodiment of the present invention. FIG.
3 is a diagram illustrating storytelling contents before and after reflection of a user's 3D face model according to an embodiment of the present invention.
FIG. 4 is a diagram illustrating a storytelling content server according to an embodiment of the present invention.
5 is a flowchart illustrating a story telling contents providing process according to an embodiment of the present invention.
FIG. 6 is a view showing a 3D face model in which a face value of a user and a user's face characteristic value are reflected in a user face image according to an embodiment of the present invention.
7 is a view illustrating a 3D face model rotated according to an embodiment of the present invention.
8 is a diagram illustrating an example of projecting or inserting a user's facial model analyzed according to an embodiment of the present invention on a content by modifying the facial model of the user according to the environment such as color and style of the content.
9 is a diagram illustrating rotation or deformation of a face reference value storage model and a 3D face model.
FIG. 10 is a diagram illustrating creation of a three-dimensional character face that has been animated according to an embodiment of the present invention.
이하, 본 발명의 장점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은, 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것으로, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 또한, 본 발명을 설명함에 있어 관련된 공지 기술 등이 본 발명의 요지를 흐리게 할 수 있다고 판단되는 경우 그에 관한 자세한 설명은 생략하기로 한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and how to achieve them, will be apparent from the following detailed description of embodiments thereof taken in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the exemplary embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete and will fully convey the concept of the invention to those skilled in the art. And the present invention is only defined by the scope of the claims. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.
도 1은 본 발명의 실시예에 따른 스토리텔링 콘텐츠 툴 제공 단말기의 구성 블록도이며, 도 2는 본 발명의 실시예에 따라 얼굴 기준값 저장 모델에 저장된 얼굴 정체성과 얼굴 표정을 도시한 그림이며, 도 3은 본 발명의 실시예에 따라 사용자의 3D 얼굴 모델의 반영 전 및 반영 후의 스토리텔링 콘텐츠를 도시한 그림이며, 도 4는 본 발명의 실시예에 따라 스토리텔링 콘텐츠 서버가 마련된 모습을 도시한 그림이다.FIG. 1 is a block diagram of a terminal for providing a storytelling contents tool according to an embodiment of the present invention. FIG. 2 is a diagram illustrating face identities and facial expressions stored in a face reference value storage model according to an embodiment of the present invention. 3 is a view showing a storytelling content before and after reflection of a 3D face model of a user according to an embodiment of the present invention, and FIG. 4 is a diagram illustrating a state in which a storytelling content server is provided according to an embodiment of the present invention to be.
이하, 스토리텔링 콘텐츠 툴 제공 단말기(100)라 함은 스토리텔링 콘텐츠가 출력되는 단말기를 말하는 것으로서, 스마트폰(smart phone)을 예로 들어 설명하나, 스마트폰만 아니라 카메라가 내장된 휴대폰뿐만 아니라 휴대용 멀티미디어 플레이어(PMP, Portable Multimedia Player), 개인 휴대용 정보 단말기(PDA, Personal Digital Assistant)나 노트북 등에서도 시스템 내부에 얼굴을 인식할 수 있는 카메라나 그 밖에 얼굴 표정을 인식할 수 있는 센서가 내장되어 있다면 이용 가능하다.물론, 본 발명이 적용 가능한 단말기는 상술한 종류에 한정되지 않고, 연산 수단이 마련된 단말기를 모두 포함할 수 있음은 당연하다.Hereinafter, the storytelling contents
참고로, 스토리텔링(story telling)이라 함은 '스토리(story) + 텔링(telling)'의 합성어로서 말 그대로 상대방에게 알리고자 하는 바를 재미있고 생생한 이야기로 설득력있게 이야기하는 것을 말한다. 따라서 스토리텔링 콘텐츠는 스토리텔링 형태로서 출력되는 영상, 그림, 애니메이션 등의 다양한 형태의 콘텐츠가 포함될 수 있다.For reference, story telling is a compound word of "story + telling", which literally means talking about persuasively what you want to tell the other person with interesting and vivid stories. Accordingly, the storytelling contents may include various types of contents such as images, pictures, and animations output as a storytelling form.
본 발명의 스토리텔링 콘텐츠 툴 제공 단말기(100)는, 실시간으로 사용자의 얼굴을 분석하여 얼굴을 재가공 하여 스토리텔링 콘텐츠에 자연스럽게 이입하여 사용자가 주인공인 것처럼 느끼게 하는 콘텐츠를 제공한다.The storytelling content
이를 위하여 본 발명의 스토리텔링 콘텐츠 툴 제공 단말기(100)는, 스토리텔링 콘텐츠를 제공해주는 툴로서 도 1에 도시한 바와 같이, 입력부(160), 표시부(170), 스토리텔링 콘텐츠 저장부(120), 사용자 얼굴 영상 생성부(130), 얼굴 기준값 저장 모델(110), 사용자 얼굴 분석부(140), 및 스토리텔링 콘텐츠 진행부(150) 중의 적어도 하나를 포함할 수 있다. 이밖에 타인 얼굴 정보 모델(180) 및 변환출력부(190) 중의 적어도 하나를 추가로 더 구비할 수 있다.1, a storytelling contents tool providing terminal 100 according to the present invention includes an
입력부(160)는 스토리텔링 출력시에 사용자의 선택 이벤트를 입력받는 모듈이다. 페이지 선택, 페이지 이전 등의 다양한 선택 이벤트를 사용자로부터 입력받을 수 있다. 또한 사용자에게 추천해줄 스토리텔링 콘텐츠를 사용자에게 제시함으로써 사용자의 선택을 유도할 수 있다. 또한 이름을 포함한 사용자의 신상 정보를 사용자에게 입력받을 수 있다. 또한 사용자가 아닌 다른 사람의 얼굴을 사전에 촬영하여 입력받을 수 있다.The
표시부(170)는 스토리텔링 콘텐츠가 영상으로 출력되는 표시창이다. 표시부(170)는 스토리텔링 콘텐츠 진행부(150)에서 재가공한 현재 사용자가 경험하고 있는 스토리텔링 콘텐츠와 자연스러운 사용자 얼굴 정보를 스토리텔링 콘텐츠에 자연스럽게 사용자에게 디스플레이함으로써 사용자가 스토리텔링 콘텐츠의 주인공으로 느끼게 할 수 있다.The
이러한 입력부(160)와 표시부(170)는, 터치스크린 패널의 단일 형태로 구현될 수 있다. 터치 스크린 패널은, 입력과 표시를 동시에 수행할 수 있는 터치 스크린 화면을 제공하여 단말기의 전면에 마련되어 작업 화면을 표시하는 표시창으로서, 스토리텔링 콘텐츠를 즐기는 사용자와의 소통을 위한 그래픽 유저 인터페이스(GUI;Graphic User Interface)를 표시한다.The
스토리텔링 콘텐츠 저장부(120)는, 스토리텔링에서 사용되는 3D 얼굴 모델, 2D 얼굴 모델, 자막 콘텐츠가 포함된 스토리텔링 콘텐츠를 구비한 메모리이다. 2D 얼굴 모델은 스토리텔링에 사용되는 인물의 얼굴을 2차원 정보값으로 모델링한 캐릭터를 말하며, 3D 얼굴 모델은 스토리텔링에 사용되는 인물의 얼굴을 3차원 정보값으로 모델링한 캐릭터를 말한다. 또한 자막 콘텐츠라 함은 스토리텔링 콘텐츠를 출력시에 함께 제공되는 자막을 말한다.The storytelling
사용자 얼굴 영상 생성부(130)는, 스토리텔링 콘텐츠를 즐기는 사용자의 얼굴을 촬영하여 사용자 얼굴 영상을 생성한다. 즉, 카메라나 다양한 얼굴 표정 인식을 위한 센서를 통하여 사용자에 대한 이미지를 캡쳐한 사용자 얼굴 영상을 사용자 얼굴 분석부(140)에 제공한다. 따라서 사용자 얼굴 영상은, 카메라를 비롯한 촬영 기기나 얼굴 인식 센서를 통해 사용자를 촬영한 내용의 파일 또는 사용자를 촬영한 영상을 의미할 수 있다. 사용자 얼굴 영상 생성부(130)는, 스토리텔링 콘텐츠 이입에 어울리는 얼굴 정보 재가공을 위해 적어도 한 프레임 이상의 사용자 얼굴 영상을 생성하여 사용자 얼굴 분석부(140)에 제공할 수 있으며, 이러한 사용자 얼굴 영상은 실시간으로 촬영되어 생성될 수도 있고, 기존에 촬영된 영상에서 얼굴 부분을 따로 추출하여 생성될 수도 있음은 물론이다.The user face
얼굴 기준값 저장 모델(110)은, 사용자 얼굴 영상을 분석할 때 사용되는 기준값 모델 데이터로서, 각 기준 얼굴의 얼굴 형상을 연속된 수치값으로 표현한 얼굴 정체성값과, 각 기준 얼굴의 얼굴 표정을 연속된 수치값으로 표현한 얼굴 표정값이 기준 얼굴별로 할당되어 있는 모델이다. 이러한 얼굴 기준값 저장 모델은 다양한 사람들의 다양한 표정에 대한 3D 얼굴 영상을 기계 학습(machine learning)을 통해 구축된 모델 데이터로서, 다양한 사람들의 얼굴 형상과 표정을 연속된 수치값으로 표현한 집합 데이터 모델로 표현되거나 데이터베이스 형태로 구축될 수 있다. wid는 사용자 얼굴 정체성값, wexp는 사용자 얼굴 표정값이라 할 때, 도 2에 도시한 바와 같이 매트릭스 형태된 기준 얼굴별로, 사용자 얼굴 정체성값과 사용자 얼굴 표정값이 각각 다르게 할당될 수 있다. 참고로 각 기준 얼굴별로 구체적인 얼굴 정체성값과 얼굴 표준값의 구체적인 수치값은 도 2에 도시되어 있지는 않다.The face reference
여기서 얼굴 정체성값은 얼굴 형상의 종류를 연속된 수치값으로 요소화한 값을 의미한다. 예를 들어서, 이마가 넓은 얼굴, 광대뼈가 튀어나온 얼굴, 눈이 작거나 큰 얼굴, 코나 턱이 긴 얼굴 등, 눈, 이마, 코, 입술, 턱, 뺨, 미간 길이, 인중 길이, 광대뼈 등의 형상과 크기에 따라 다양한 얼굴 형상이 존재할 수 있고, 각 얼굴 형상에 따라 다른 얼굴 정체성값이 설정될 수 있다. 같은 표정을 연습하더라도 사용자마다 얼굴의 형상이 다를 수 있다. 따라서, 사용자 얼굴 정보를 생성하는 경우, 사용자마다 다른 값을 갖는 얼굴 정체성값을 고려할 수 있다. 따라서 얼굴 정체성값은, 얼굴의 구성 부위를 연속된 수치값으로 요소화한 값을 의미한다. 즉, 얼굴의 눈 크기, 코 크기, 입 크기, 얼굴의 폭, 얼굴의 높이 등을 수치화한 값이 해당될 수 있다.Here, the face identity value is a value obtained by ellifying the type of the face shape as a continuous numerical value. For example, if the forehead has a wide face, a cheekbone protruding face, a small or large eye, a long face with a cone or chin, eyes, forehead, nose, lips, jaws, cheeks, Various face shapes may exist depending on the shape and size, and different face identity values may be set according to each face shape. Even if you practice the same expression, the shape of your face may vary from person to person. Therefore, when user face information is generated, a face identity value having a different value can be considered for each user. Thus, the face identity value is a value obtained by ellating the constituent parts of the face into consecutive numerical values. That is, values obtained by digitizing the eye size of the face, the nose size, the mouth size, the width of the face, and the height of the face may be applicable.
얼굴 표정값이란, 얼굴 표정을 연속된 수치값으로 요소화한 값을 의미한다. 즉, 연습 얼굴 모델이나 하기할 사용자 얼굴 모델 같은 얼굴 모델이 가지는 표정의 변화 정도에 따라 다른 값을 가질 수 있다. 얼굴 표정값은 다양한 변수로 표현될 수 있다. 예를 들면, 얼굴 모델의 눈 모양과 관련된 얼굴 표정값은 눈 모양의 변화 정도에 따라 다른 값을 가질 수 있고, 얼굴 모델의 입 모양과 관련된 얼굴 표정값은 입 모양의 변화 정도에 따라 다른 값을 가질 수 있다. 이외에도 얼굴의 각 부위나 안면 근육의 위치와 방향을 고려하여 다양한 얼굴 표정값이 정의될 수 있다. 이때, 얼굴 표정값은 얼굴 모델이 표현하는 얼굴 모양, 즉 얼굴 정체성값이 다르더라도 같은 표정을 표현하고 있다면 같은 얼굴 표정값을 가질 수 있다.The facial expression value means a value obtained by factoring facial expressions into consecutive numerical values. That is, it can have a different value depending on the degree of change of expression of a face model such as an exercise face model or a user's face model to be performed. The facial expression value can be expressed by various variables. For example, the facial expression value associated with the eye shape of the face model may have a different value depending on the degree of change of the eye shape, and the facial expression value associated with the mouth shape of the face model may be different depending on the degree of change of the mouth shape Lt; / RTI > In addition, various facial expression values can be defined in consideration of the positions and orientations of facial parts and facial muscles. At this time, the facial expression value may have the same facial expression value if the facial expression represented by the facial model, that is, the facial identity value, is different from that of the same facial expression.
얼굴 형상별로 그리고 표정별로 촬영된 다양한 사람들의 얼굴 영상 데이터를 Procrustes Analysis를 통해 정열하고, PCA(Principal Component Analysis), SVD(Singular Value Decomposition), HOSVD(High Order Singular Value Decomposition) 중 적어도 하나를 포함하는 데이터 분석 방법을 통해 데이터의 얼굴 정보를 얼굴 정체성값과 얼굴 표정값의 연속된 수치값으로 요소화시켜 얼굴 기준값 저장 모델(110)이 구축될 수 있다.Facial image data of various people photographed by face shapes and facial expressions are arranged through Procrustes Analysis, and at least one of Principal Component Analysis (PCA), Singular Value Decomposition (SVD) and High Order Singular Value Decomposition (HOSVD) The facial reference
사용자 얼굴 분석부(140)는, 제공받은 촬영정보 속 사용자의 얼굴 영상이 어떤 정체성값 및 어떤 표정값을 갖는지 분석한다. 이를 위해 사용자 얼굴 분석부(140)는, 사용자 얼굴 영상 생성부(130)를 통해 생성된 사용자 얼굴 영상과 매칭되는 얼굴 정체성값과 얼굴 표정값을 얼굴 기준값 저장 모델(110)을 기반으로 추정하여 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 결정한다. The user
즉, 사용자 얼굴 영상을 분석하여, 얼굴의 눈 크기, 코 크기, 입 크기, 얼굴의 폭, 얼굴의 높이 등을 연속된 수치값으로 요소화한 값인 사용자 얼굴 정체성값과 매칭되는 동시에 얼굴의 각 부위나 안면 근육의 위치와 방향을 고려한 얼굴 표정값과 매칭되는 기준되는 얼굴을 얼굴 기준값 저장 모델(110)로부터 추정한다. 여기서 매칭이라 함은 완전 동일함을 의미할 수도 있지만, 실제로는 사용자 얼굴 영상의 얼굴 정체성 및 얼굴 표정값과 가장 유사도가 높은 기준 얼굴을 매칭하는 것을 말한다. 따라서 사용자의 얼굴 영역에 해당하는 픽셀 값들로부터 분석된 사용자의 피부색 정보 및 텍스쳐 맵을, 스토리텔링 콘텐츠의 색감, 질감, 텍스쳐 등에 어울리게 변경시켜 입체감을 줄 수 있다.That is, the face image of the user is analyzed to match the face value of the user, which is a value obtained by factoring the eye size, the nose size, the mouth size, the face width, and the face height of the face into successive numerical values, The reference face matching with the facial expression value considering the position and direction of the facial muscle is estimated from the face reference
스토리텔링 콘텐츠 진행부(150)는, 사용자 얼굴 분석부(140)를 통해 결정되는 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 과장 및 변형한 후 반영하여, 스토리텔링 콘텐츠로서 표시부(170)에 출력한다. 전술한 것처럼, 값과 표정값을 기준값과 비교하여 결정하는 과정 및 사용자 얼굴 정체성값과 표정값을 과장하고 변형하여 반영하는 과정은 실시간으로 수행될 수 있음은 물론이다. 사용자 얼굴 정체성 스토리텔링 콘텐츠 진행부(150)는, 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 상기 스토리텔링 콘텐츠의 3D 얼굴 모델이나 2D 얼굴 모델에 사용자 얼굴 피부 색상 분포를 또는 상기 과정으로 콘텐츠와 어울리게 변형된 사용자 얼굴 피부 색상 분포를 반영하여 출력할 수 있다. 즉, 스토리텔링 콘텐츠 진행부(150)는, 실시간으로 촬영되는 사용자 얼굴 영상으로부터 감정을 분석하여 감정에 해당하는 얼굴 표정값을 강조하여 사용자 3D 얼굴 모델에 반영하여 표시하는 것이다. 예를 들어, 도 3(a)에 도시한 바와 같이 모나리자 화보의 스토리텔링 콘텐츠에서, 도 3(b)의 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 반영한 3D 얼굴 모델로서 도 3(c)와 같이 반영하여 출력 표시할 수 있다. 참고로 3D 얼굴 모델은 3차원적으로 입체적인 얼굴 형상으로 표시되는 모델을 말한다.The storytelling
또한, 스토리텔링 콘텐츠 진행부(150)는 사용자가 스토리텔링 콘텐츠와 interaction 한 정보를 분석하여 다음 스토리텔링 콘텐츠를 추천 및 진행해줄 수 있다.In addition, the storytelling
나아가 스토리텔링 콘텐츠 진행부(150)는, 3D 얼굴 모델에 사용자 얼굴 피부 색상 분포를 반영하여 출력하도록 구현할 수 있다. 이를 위해 사용자 얼굴 분석부(140)는, 사용자 얼굴 영상 생성부(130)를 통해 실시간으로 생성되는 사용자 얼굴 영상의 픽셀값을 이용하여 사용자 얼굴 피부 색상 분포를 파악하며, 스토리텔링 콘텐츠 진행부(150)에서 출력중인 스토리텔링 콘텐츠의 색상 분포와 스타일에 맞게 분석된 사용자 얼굴 피부 색상 분포를 변형한다.Furthermore, the storytelling
또한, 스토리텔링 콘텐츠 진행부(150)는, 사용자의 신상정보에 맞추어서 자막 콘텐츠를 수정하여 출력할 수 있다.In addition, the storytelling
또한, 스토리텔링 콘텐츠 진행부(150)는, 타인 얼굴 정보가 반영된 타인 3D 얼굴 모델을 사용자의 3D 얼굴 모델과 함께 스토리텔링 콘텐츠에 함께 출력하도록 구현할 수 있다. 이를 위해, 도 4에 도시한 바와 같이 스토리텔링 콘텐츠 서버를 구비하여, 스토리텔링 콘텐츠 툴 제공 단말기는, 스토리텔링 콘텐츠를 즐기는 사용자가 아닌 다른 사람의 얼굴 정보를 스토리텔링 콘텐츠 서버로부터 수신하여 타인 얼굴 정보로서 저장하는 타인 얼굴 정보 모델(180)을 추가로 더 구비한다. 따라서 스토리텔링 콘텐츠 진행부(150)는, 타인 얼굴 정보가 반영된 타인 3D 얼굴 모델을 스토리텔링 콘텐츠에 함께 출력하여, 흥미를 배가시킬 수 있다.In addition, the storytelling
따라서 본 발명은 사용자의 얼굴을 촬영할 수 있는 카메라나 센서를 포함하고 있는 스마트 디바이스(태블릿)을 포함한 플랫폼에서 작동하는 사용자가 주인공인 스토리텔링 콘텐츠 플랫폼을 개시하며, 본 발명에 따른 사용자가 주인공인 스토리텔링 콘텐츠 플랫폼은 사용자의 얼굴을 실시간으로 촬영하거나 촬영하였던 사용자의 얼굴을 획득하고, 사용자가 스토리텔링 콘텐츠와 interaction 하며, 사용자의 얼굴 및 신상정보가 재가공되어 입력된 스토리텔링 콘텐츠를 디스플레이하며, 사용자뿐만이 아니라 사전에 촬영 및 분석된 다른 사람 혹은 다른 디바이스에서 본 발명을 사용하고 있는 사용자도 함께 사용자가 사용하는 콘텐츠에 등장할 수 있도록 할 수 있다.Therefore, the present invention discloses a storytelling content platform in which a user who operates on a platform including a smart device (tablet) including a camera or a sensor capable of photographing a user's face is a main character, The telling contents platform acquires the face of the user who has photographed the face of the user in real time or photographed the user, interacts with the storytelling contents by the user, displays the storytelling contents in which the face and the personal information of the user are reproduced and inputted, But also a user who is using the present invention in another person or another device that has been photographed and analyzed in advance can also appear in the content used by the user.
한편, 스토리텔링 콘텐츠 진행부(150)는, 사용자 얼굴 분석부(140)를 통해 실시간으로 결정되는 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 반영하여 출력 및 표시하는데, 이러한 얼굴 표정값 반영은 3D 얼굴 모델 혹은 2D 얼굴 모델에 반영될 수 있으며, 이때, 수식 산출을 통한 반영도 가능하며 다양한 재가공을 하여 반영할 수 있다. 이하, 이와 같은 반영의 예를 도 5와 함께 상술한다.On the other hand, the storytelling
한편, 변환출력부(190)는 다양한 가공 과정을 통해 표시부(170)에 반영된 스토리텔링 콘텐츠를 프린팅 가능한 다큐먼트 파일로 변환 생성하거나 프린팅 파일을 생성하여 종이로 출력한다. 스토리텔링 콘텐츠가 다큐먼트 파일로 생성된 후에는 프린터를 통해 종이로 용이하게 출력되거나 사용자들간에 쉽게 교환 및 수정될 수 있다. Meanwhile, the
도 5는 본 발명의 실시예에 따른 스토리텔링 콘텐츠 제공 과정을 도시한 플로차트이며, 도 6은 본 발명의 실시예에 따라 사용자 얼굴 영상에서 사용자 얼굴 정체값과 사용자 얼굴 특성값이 반영된 3D 얼굴 모델의 모습을 도시한 그림이며, 도 7은 본 발명의 실시예에 따라 3D 얼굴 모델이 회전된 모습을 도시한 그림이다.FIG. 5 is a flowchart illustrating a story-telling content providing process according to an embodiment of the present invention. FIG. 6 is a flowchart illustrating a process of providing a storytelling content according to an exemplary embodiment of the present invention. FIG. 7 is a view illustrating a 3D face model rotated according to an embodiment of the present invention.
본 발명의 스토리텔링 콘텐츠 제공 과정은, 사용자 얼굴 영상 생성 과정(S610), 사용자 얼굴 정체성값 및 표정값 결정 과정(S620), 사용자 얼굴 정보 재가공 과정(S630), 스토리텔링 콘텐츠 출력 과정(S640), 및 스토리텔링 콘텐츠 변환 과정(S650) 중의 적어도 하나를 포함할 수 있다.The storytelling contents providing process of the present invention includes a user face image generation process S610, a user face identity value and a facial expression value determination process S620, a user face information reprocessing process S630, a storytelling content output process S640, And a storytelling content conversion process (S650).
사용자 얼굴 영상 생성 과정(S610)은, 스토리텔링 콘텐츠를 즐기는 사용자의 얼굴을 실시간으로 촬영하여 사용자 얼굴 영상을 생성하는 과정이다. 카메라, 센서 등의 다양한 촬영 수단을 통해 사용자의 얼굴을 실시간으로 촬영하거나 예전에 촬영되었던 사용자의 얼굴 영상을 입력받을 수도 있다.The user face image generation process (S610) is a process of generating a user face image by photographing the face of a user enjoying the storytelling contents in real time. The face of the user can be photographed in real time through various photographing means such as a camera and a sensor or a face image of a user that has been photographed before.
사용자 얼굴 정체성값 및 표정값 결정 과정(S620)은, 촬영된 사용자 얼굴 영상을 이용하여, 사용자 얼굴 형상을 연속된 수치값으로 요소화(parameterized)한 사용자 얼굴 정체성값과, 사용자 얼굴 표정을 연속된 수치값으로 요소화한 사용자 얼굴 표정값을 결정하는 과정이다.The user's facial identity value and facial expression value determination process S620 is a process for determining a user's facial identity and a facial expression value using a user facial image obtained by parameterizing a user's facial shape to a continuous numerical value, And determining the user facial expression value that is elementized by the numerical value.
각 기준 얼굴의 얼굴 표정을 연속된 수치값으로 요소화한 얼굴 표정값과 각 기준 얼굴의 얼굴 형상을 연속된 수치값으로 요소화한 얼굴 정체성값이 기준 얼굴별로 할당되어 있는 얼굴 기준값 저장 모델이 구비되어 있다고 할 때, 사용자 얼굴 정체성값 및 표정값 결정 과정(S620)은 S610 과정에서 획득된 사용자 얼굴 영상을 얼굴 기준값 저장 모델과 비교 매칭 및 정합함으로써 사용자 얼굴 영상과 가장 유사한 얼굴 정체성값과 얼굴 표정값을 추출하여 결정할 수 있다.The facial expression value obtained by elementizing the facial expression of each reference face by continuous numerical values and the facial identity value obtained by factoring the facial shape of each reference face into consecutive numerical values are assigned to the reference face, The user's face identity value and facial expression value determination process S620 may be performed by comparing the user face image obtained in S610 with the face reference value storage model by comparing and matching the face identification value and the facial expression value Can be extracted and determined.
사용자 얼굴 정보 재가공 과정(S630)은 얼굴 정체성값 및 표정값 결정 과정으로부터 유추한 사용자의 얼굴정보의 특성을 과장하거나 사용자 얼굴 정보의 피부 정보를 포함한 질감정보를 스토리텔링 콘텐츠의 질감과 어울리게 재가공 하는 과정을 말한다.The process of re-processing the user's face information (S630) may include a process of exaggerating the characteristics of the user's facial information derived from the facial identity value and facial expression determination process, or re-processing the texture information including skin information of the user's face information, .
스토리텔링 콘텐츠 출력 과정(S640)은, 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 반영하여 표시부를 통해 스토리텔링 콘텐츠에 표시하는 과정이다. 이러한 스토리텔링 콘텐츠 출력 과정(S640)은, 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 3D 얼굴 모델에 반영하거나, 또는 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 2D 얼굴 모델에 반영하여 스토리텔링 콘텐츠에 표시 출력할 수 있다. 즉, 도 7에 도시한 바와 같이 3D 얼굴 모델을 반영할 수 있으며, 나아가 회전된 3D 얼굴 모델을 반영할 수 있다.The storytelling content output process S640 is a process of displaying the user's face identity value and the user's facial expression value on the storytelling contents through the display unit. Such a storytelling content output process (S640) may reflect the user facial identity value and the user facial expression value in the 3D facial model, or reflect the user facial identity value and the user facial expression value in the 2D facial model to be displayed in the storytelling content Can be output. That is, as shown in FIG. 7, the 3D facial model can be reflected, and the rotated 3D facial model can be reflected.
스토리텔링 콘텐츠 변환 과정(S650)은, 다양한 가공 과정을 통해 표시부(170)에 반영된 스토리텔링 콘텐츠를 프린팅 가능한 다큐먼트 파일로 변환 생성하거나 종이로 출력하는 과정이다. 스토리텔링 콘텐츠가 다큐먼트 파일로 생성된 후에는 프린터를 통해 종이로 용이하게 출력되거나 사용자들간에 쉽게 교환 및 수정될 수 있다. The storytelling contents conversion process S650 is a process of transforming the storytelling contents reflected on the
전술한 것처럼, 얼굴 기준값 저장 모델(110)은, 얼굴 형상별로 그리고 표정별로 촬영된 다양한 사람들의 3D 얼굴 영상 데이터가 Procrustes Analysis를 통해 정열된 후, PCA(Principal Component Analysis), SVD(Singular Value Decomposition), HOSVD(High Order Singular Value Decomposition) 중 적어도 하나를 포함하는 데이터 분석 방법을 통해 얼굴 정체성값과 얼굴 표정값이 연속된 수치값으로 요소화되어 다양한 얼굴 모델의 집합으로 구축될 수 있다.As described above, the face reference
이때, 얼굴 기준값 저장 모델(110)에서의 3D 얼굴 모델을 V라고 하면, 이다. 여기서, 은 실수 공간을 의미하고, p는 3D 얼굴 모델인 V의 vertex의 수를 의미한다. 즉, 3p는 vertex 수의 3차원 공간을 의미한다.At this time, if the 3D face model in the face reference
한편, 얼굴 기준값 저장 모델(110)에서의 3D 얼굴 모델인 V는 다음의 [식 1]처럼 표현될 수 있다.On the other hand, the 3D face model V in the face reference
[식 1][Formula 1]
V=g(C,wV = g (C, w idid ,w, w expexp ))
여기서, wid는 사용자 얼굴 정체성값, wexp는 사용자 얼굴 표정값이고, C는 사용자에게 직접 보여지지 않는 시스템 내부에서 PCA, SVD, HOSVD 중의 적어도 하나를 통해 학습된 얼굴 특징 분포의 학습 모델이며, 함수 g()는 다양한 방식으로 전개될 수 있다. 즉, 3D 얼굴 모델은 C에 wid와 wexp의 값을 변화시킴으로써 다양한 얼굴 모델이 생성될 수 있다.Where w id is the face identity value of the user, w exp is the face facial expression value of the user, C is the learning model of the facial feature distribution learned through at least one of PCA, SVD, and HOSVD in the system, The function g () can be expanded in various ways. In other words, the 3D face model can generate various face models by changing the values of w id and w exp in C.
한편, 얼굴 기준값 저장 모델이 HOSVD를 통해 학습되어 구성된 경우, 3D 얼굴 모델인 V는 다음의 [식 2]와 같이 텐서 연산으로 표현될 수 있다. On the other hand, when the face reference value storage model is learned and configured through HOSVD, the 3D face model V can be expressed by a tensor operation as shown in the following [Equation 2].
[식 2][Formula 2]
여기서, C는 HOSVD를 통해 연산된 core tensor이다. Here, C is the core tensor calculated through HOSVD.
여기서, 텐서 연산은 얼굴 정체성값, 얼굴 표정값, 얼굴 구조체 (vertex) 정보를 서로 파라미터화(parameterized)하기 위한 식이다. 사용자 얼굴 영상으로부터 분석되는 얼굴 정체성값, 얼굴 표정값, 얼굴 크기 정보, 얼굴 위치 정보, 얼굴 회전 정보 및 카메라 정보는 다음과 같이 렌더링 과정에서 사용될 수 있다.Here, the tensor operation is an expression for parameterizing the face identity value, the facial expression value, and the face structure information (vertex) with each other. The facial identity value, facial expression value, face size information, face position information, face rotation information, and camera information analyzed from the user facial image can be used in the rendering process as follows.
한편, PCA를 통해 데이터의 평균과 고유 벡터로 3D 얼굴 모델인 V를 표현할 경우, 다음의 [식 3]처럼 표현될 수 있다.On the other hand, when the 3D face model V is expressed by the mean and eigenvector of the data through the PCA, it can be expressed as the following [Equation 3].
[식 3] [Formula 3]
이 때의 , , 는 각각 PCA를 통해 학습된 데이터의 평균값, 얼굴의 정체성과 관련된 고유벡터, 얼굴의 표정값과 관련된 고유벡터이다.At this time , , Is an eigenvector related to the average value of the data learned through the PCA, the eigenvector associated with the facial identity, and the facial expression value.
한편, 스토리텔링 콘텐츠 출력 과정(S640)에서는, 상기 V=g(C,wid,wexp) 함수가 반영된 3D 얼굴 모델(V)을 하기의 [식 4]에 의해 2차원 화면에 투영하여 화면에 출력할 수 있다. On the other hand, in the storytelling content outputting process (S640), the 3D face model (V) reflecting the function V = g (C, w id , w exp ) is projected onto the two- .
[식 4] [Formula 4]
여기서, F는 2D 얼굴 모델로서 3D 얼굴 모델이 2차원 화면에 투영된 모델이고, s는 얼굴의 크기를 조정하는 얼굴 크기 정보이고, MP(f)는 Homogeneous coordinate 상에서 카메라 초점거리 f의 perspective projection 행렬 를 이용해 3D 위치를 화면상의 2D 위치로 매핑하는 카메라 함수이고, R은 얼굴을 회전시키는 얼굴 회전 정보이며, T는 얼굴의 위치를 이동시키는 얼굴 위치 정보이다. 여기서, 이고, 이며, 이다.Here, F is a 2D face model, a 3D face model is projected on a two-dimensional screen, s is face size information for adjusting the face size, and M P (f) is a perspective projection procession R is a face rotation information for rotating a face, and T is a face position information for moving a position of a face. here, ego, Lt; to be.
상기의 [식 4]은 [식 1]로 계산되는 3D 얼굴 모델이 실제 화면에서 사용자에게 보여지며 모델링될 때의 수학식에 해당한다. [Equation 4] corresponds to a mathematical expression when a 3D face model calculated by [Equation 1] is displayed to a user on an actual screen and is modeled.
즉, 상기 [식 4]에 의해 3D 얼굴 모델을 다양한 각도로 회전시키는 동시에 크기도 조정하여 출력할 수 있을 뿐만 아니라, 얼굴 정체성값 및 표정값을 변경하여 출력할 수도 있다. That is, the 3D facial model can be rotated at various angles and the size can be adjusted and output by the above-described [Expression 4], and the face identity value and the facial expression value can be changed and output.
도 9는 얼굴 기준값 저장 모델과 3D 얼굴 모델의 회전 또는 변형을 예시한 도면이다. 즉, 상기 [식 4]에 의해 3D 얼굴 모델을 다양한 각도로 회전시키는 동시에 크기도 조정하여 출력할 수 있을 뿐만 아니라, 얼굴 정체성값 및 표정값을 변경하여 출력할 수도 있다.9 is a diagram illustrating rotation or deformation of a face reference value storage model and a 3D face model. That is, the 3D facial model can be rotated at various angles and the size can be adjusted and output by the above-described [Expression 4], and the face identity value and the facial expression value can be changed and output.
이후 변수 표현의 간략화를 위해 라고 기술하도록 한다.To simplify the expression of variables afterwards .
여기서, m은 각 구성요소의 집합으로서, 해당 집합의 구성요소는 얼굴 정체성값(wid), 얼굴 표정값(wexp), 얼굴 크기 정보에서의 크기값(s), 얼굴 위치 정보에서의 병진값(tx,ty), 얼굴 회전 정보에서의 회전값(rx,ry,rz), 카메라 초점거리(f)이다.Here, m is a set of each component, and the constituent elements of the set include a facial identity value (w id ), a facial expression value (w exp ), a size value (s) in the face size information, a value (t x, t y), rotation of the face in the rotation information (r x, r y, r z), the camera focal length (f).
[식 5][Formula 5]
는 2차원 화면에 투영된 3D 얼굴 모델, 즉 2D 얼굴 모델로부터 기정의된 vertex의 위치만을 추출하는 함수이고, 는 wid와 wexp로부터 생성된 3D 얼굴 모델인 V로부터 기정의된 vertex의 위치만을 추출하는 함수이다. 이 때,은 기정의된 vertex의 수이며 이다. Is a function for extracting only a position of a vertex determined from a 3D face model projected on a two-dimensional screen, that is, a 2D face model, Is a function that extracts only the positions of the vertices that have been defined from the 3D face model V generated from w id and w exp . At this time, Is the number of vertices predefined to be.
그리고, m은 전술한 것처럼 얼굴 정체성값(wid), 얼굴 표정값(wexp), 얼굴 크기 정보에서의 크기값(s), 얼굴 위치 정보에서의 병진값(tx,ty), 얼굴 회전 정보에서의 회전값(rx,ry,rz), 카메라 초점거리(f)를 포함하는 구성요소의 집합이다.M represents a face value (w id ), a face expression value (w exp ), a size value s in the face size information, a translation value (t x , t y ) in the face position information, rotation of the rotation information (r x, r y, r z), the set of components including a camera focal length (f).
F를 m의 요소로부터 생성되는 2차원 영상에 투영된 모델, I를 입력 영상, V를 얼굴 정체성값(wid)과 얼굴 표정값(wexp)으로 요소화된 3D 얼굴 모델, x2d와 x3d는 각각 입력된 모델에서 기정의된 특징점의 위치를 추출하는 함수, A를 3D 얼굴 모델의 텍스쳐(texture) 학습 모델, 를 후술하겠지만 입력 정보로부터 구별이 분명한(distinctive) 특징(feature)를 추출하는 특징 추출 연산자라고 할 때, 상기 [식 5]에 의해 얼굴 정체성값(wid)과 얼굴 표정값(wexp)이 결정될 수 있다.F is a model projected on a two-dimensional image generated from elements of m, I is an input image, V is a 3D face model that is elementized by facial identity value (w id ) and facial expression value (w exp ), x 2d and x 3d is a function for extracting the positions of predetermined feature points in the input model, A is a texture learning model of the 3D face model, A face identity value w id and a facial expression value w exp are determined by Expression 5 as a feature extraction operator that extracts distinctive features from input information as will be described later .
상기 [식 5]는 카메라로부터 받아온 촬영 정보인 입력 영상 I로부터 [식 4]의 3D 얼굴 모델을 복원할 때 사용되거나 혹은 그러한 모델을 학습할 때 사용되는 목적 함수(Objective Function)이다. 즉, 영상에 나타난 얼굴을 3D 얼굴 모델로 복원할 때 사용되는 목적함수를 의미한다. 이 때, A는 3D 얼굴 모델의 텍스쳐(texture) 학습 모델이다. 즉, 영상 속 얼굴을 묘사하는 현재 3D 얼굴 모델의 파라미터인 m을 업데이트 하는 Δm을 찾는 것이 목적이다. [Equation 5] is an objective function used when restoring the 3D face model of [Equation 4] from the input image I, which is photographing information received from the camera, or when learning the model. That is, it means an objective function used when restoring the face shown in the image to the 3D face model. In this case, A is a texture learning model of a 3D face model. That is, the aim is to find? M that updates the parameter m of the current 3D face model that depicts the face in the image.
여기서, 는 합성곱 신경망(Convolutional Neural Network), 심층 신경망(Deep Neural Network), SIFT 중 적어도 하나를 사용하여 데이터의 특징(feature)을 추출(extraction)하는 특징 추출 연산자이다. 이때, 가 합성곱 신경망 혹은 심층 신경망인 경우, 비록 두 입력 데이터의 종류가 다르더라도() 특징 추출 연산자()를 통과한 두 데이터가 유사한 값을 출력하도록 상기 특징 추출 연산자()를 학습시킬 수 있다. 이 때,과 는 상기 설명한 의 형태를 갖는 특징 추출 연산자의 예를 나타내며, 둘은 내부 상수 혹은 변수만 다를 뿐 서로 동일한 연산자일 수 있으며, 혹은 서로 다른 형태의 입력을 받지만 같은 값을 출력하도록 디자인된 서로 다른 연산자일 수 있다. here, Is a feature extraction operator that extracts features of data using at least one of Convolutional Neural Network, Deep Neural Network, and SIFT. At this time, Is a composite neural network or a neural network, even though the types of the two input data are different ) Feature Extraction Operator ( ) To output a similar value to the feature extraction operator ( Can be learned. At this time, and Quot; And two of them may be the same operator with different internal constants or variables or they may be different operators designed to receive different types of input but output the same value.
특징 추출 연산자는 데이터를 영상 정보가 아닌 다른 차원의 정보로 더욱 분별력 있게 표현하는 것을 의미하고, 심층 신경망은 기존의 신경망(Neural Network)를 확장하여 Convolution Layer, Pooling Layer, Normalization Layer, Recurrent Layer 등의 조합으로 구성된 네트워크를 사용하는 학습 기법을 의미할 수 있다. The feature extraction operator means to display the data more informally with information other than the image information. In the neural network, the neural network extends the existing neural network, such as Convolution Layer, Pooling Layer, Normalization Layer and Recurrent Layer. It can mean a learning technique that uses a network of combinations.
그리고, dist[]는 두 벡터간의 거리를 나타내며, 두 벡터 간의 거리로서 유사도가 판단될 수 있다. 한편, 두 벡터 간의 거리는 코사인 거리(Cosine Distance), 유클리디안 거리(Euclidean Distance), 해밍 거리(Hamming Distance) 중 적어도 하나의 측정치를 이용하여 계측될 수 있다. And dist [] represents the distance between two vectors, and the similarity can be judged as the distance between two vectors. Meanwhile, the distance between the two vectors can be measured using at least one of cosine distance, Euclidean distance, and Hamming distance.
여기서, 코사인 거리는 두 데이터 간의 유사도를 코사인 연산으로 알아내는 방법을 의미하고, 유클리디안 거리는 두 데이터 간의 유사도를 L2 norm으로 알아내는 방법을 의미하며, 해밍 거리는 두 데이터 간의 유사도를 각 데이터를 구성하는 요소간 차이나는 부분의 개수로 측정하는 방법을 의미한다.Here, the cosine distance means a method of finding the similarity between two data by a cosine operation, and the Euclidean distance means a method of finding the similarity between two data by L2 norm. Difference between elements means a method of measuring by the number of parts.
한편, 영상 속 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 분석할 때, [식 5]를 통한 3D 얼굴 모델을 이용한 방법이 아닌 하기의 [식 6]의 목적 함수를 통해 2D 얼굴 특징점(X2d)을 추출한 후, 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 분석할 수 있다. Meanwhile, when analyzing the user facial identity value and the user facial expression value in the image, the 2D facial feature point (X 2d ) is obtained through the objective function of the following [Formula 6] rather than the method using the 3D facial model using [Formula 5] The user's face identity value and the user facial expression value can be analyzed.
[식 6] [Formula 6]
이 경우, I는 얼굴 특징점을 추출할 입력 영상이고, dist[]와 는 상기 [식 5]에서의 설명과 같다. In this case, I is the input image from which the facial feature points are to be extracted, dist [ Is the same as that described in the above-mentioned [Formula 5].
는 2D 얼굴 영상이나 얼굴 기준값 저장 모델의 3D 얼굴 영상에서 기정의된 특징점, D는 특징점이 마킹되어 있는 2D 얼굴 영상 혹은 3D 얼굴 영상을 의미한다. 이때, D가 3D 얼굴 모델 데이터베이스의 경우 [식 1]의 얼굴 기준값 저장 모델을 만들기 위한 3D얼굴 모델 데이터베이스와 동일할 수 있다. 즉, [식 6]은 입력 영상 I에서 현재 추측(estimating)중인 로부터 나온 Feature가 데이터베이스로부터 학습한 Feature, 와 가까워지도록 를 업데이트 하는 를 추측하는 것이다. 이와 같은 방법으로 를 추측함으로써 영상 속 얼굴의 특징점의 위치를 알아낼 수 있다. Is a predetermined feature point in a 3D face image of a 2D face image or face reference value storage model, and D is a 2D face image or a 3D face image in which feature points are marked. In this case, D may be the same as the 3D face model database for creating the face reference value storage model of [Expression 1] in the 3D face model database. In other words, [Equation 6] is obtained by dividing the input image I currently estimated Feature extracted from the database, To be close to To update . In this way The position of the feature point of the face in the image can be found.
이 때,과 는 상기 설명한 의 형태를 갖는 특징 추출 연산자의 예를 나타내며, 둘은 내부 상수 혹은 변수만 다를 뿐 서로 동일한 연산자일 수 있으며, 혹은 서로 다른 형태의 입력을 받지만 같은 값을 출력하도록 디자인된 서로 다른 연산자일 수 있다. 또한, 는 특정 고차원의 특징을 추출하는 것이 아닌, 입력된 값, 혹은 입력된 값의 요소값을 그대로 출력하도록 디자인할 수 있음은 물론이다.At this time, and Quot; And two of them may be the same operator with different internal constants or variables or they may be different operators designed to receive different types of input but output the same value. Also, It is needless to say that the input value or the element value of the input value can be designed to be output without directly extracting the specific high dimensional feature.
[식 7][Equation 7]
[식 8][Equation 8]
이후, [식 7] 및 [식 8]과 같이 해당 얼굴 특징점의 위치(X2d)를 PCA(Principle Component Analysis), SVD(Singular Value Decomposition), HOSVD(High Order SVD)중 하나를 포함하는 방법으로 분석한 얼굴 기준값 저장 모델의 얼굴 정체성 혹은 얼굴 표정 형태 공간(shape space,Cid,Cexp)에 투영(projection)함으로써 사용자 얼굴 정체성값 혹은 사용자 얼굴 표정값을 유추할 수 있다. 이 때, ,는 데이터베이스에서의 평균 얼굴 형태이다.Thereafter, the method comprises one of [Formula 7] and [Expression 8] and the face position (X 2d) the PCA (Principle Component Analysis), SVD (Singular Value Decomposition), (High Order SVD) HOSVD of the feature points as The user's facial identity value or user's facial expression value can be inferred by projecting the facial identity or the facial expression shape space (C id , C exp ) of the analyzed face reference value storage model. At this time, , Is the average face shape in the database.
한편, [식 5]]와 [식 6]을 통한 산출을 위해서는 경사 하강법(Gradient Descent), 연속된 리그레서(Cascade Regressor)를 통한 선형 리그레션(linear regression) 방법, 반복 신경망(Recurrent Neural Network)을 통한 방법 중 어느 하나 이상을 사용할 수 있다.For calculation through [Equation 5] and [Equation 6], a gradient regression method using a gradient descent method, a linear regression method using a continuous regressor, a recurrent neural network ) May be used.
여기서 경사 하강법은 미분 개념을 활용한 방법으로써, 현재의 위치에서 기울기(Gradient)에 비례하여 단계적으로 함수의 최소 또는 최대에 접근하는 점근적인 알고리즘을 의미한다. 즉, 주어진 문제의 최소 또는 최대값을 찾기 위해 문제의 해답의 초기 예상 값부터 시작해서 경사(Gradient)를 따라 탐색해 나가는 방법을 의미한다.The slope descent method is a method using the differential concept, which means an asymptotic algorithm that approaches the minimum or maximum of the function step by step in proportion to the gradient at the current position. That is, it means searching along the gradient starting from the initial estimate of the solution of the problem to find the minimum or maximum value of the given problem.
또한, 연속된 리그레서를 통한 리그레션 방법은 함수의 최소 또는 최대 값을 구하기 위해 기존의 문제에서 해답을 구하는 과정을 미리 학습한 연속된 리그레서를 연속적으로 적용하면서 탐색하는 알고리즘을 의미한다. 이때, 리그레서(Regressor)로서, 문제를 다른 차원의 특징 공간(Feature Space)으로 표현하여 해당 특징 공간에서의 반복적인 선형 결합으로 문제의 해를 구하는 연속된 선형 리그레서(Cascade Linear Regressor), 문제를 트리나 FERN 구조의 특징 벡터들의 연속된 조합으로 해를 구하는 트리 기반 리그레서(Tree bases Regressor)등을 예시할 수 있다.In addition, the regression method through the continuous regressor means an algorithm that continuously searches for a series of regressors by learning a solution to an existing problem in order to obtain a minimum or maximum value of a function. At this time, as a regressor, there are a continuous linear regressor which expresses a problem as a feature space of another dimension and obtains a problem solution by repetitive linear combination in the feature space, And a tree bases regressor for finding a solution by a series of combinations of feature vectors of a FERN structure.
또한, 반복 신경망은 신경망(Neural Network)을 구성할 때, 데이터의 방향이 앞으로만 진행하는(Feed Forward) 것이 아닌, 앞뒤 양방향으로 진행할 수 있는 (Recurrent) 반복적인 순환 구조를 특징으로 하는 신경망을 의미한다.In addition, the iterative neural network is a neural network that is characterized by a repetitive cyclic structure that can proceed both forward and backward (forward) rather than forward (forward) data direction when constructing a neural network do.
결국, 본 발명은, 얼굴 촬영 영상으로부터 사용자 얼굴 정보를 활용하기 위하여 1) 얼굴 검출, 2) 얼굴 특징점 검출, 3) 감정 및 표정을 포함한 얼굴 특성 인식의 단계를 거쳐서 얼굴 정보를 분석한다. 이때, 1) 얼굴 검출 단계에서 빠르고 정확한 프로세싱을 위해서 Adaboost(Adaptive Boosting)를 이용한 템플릿 기반 검출 기법을 사용할 수 있다. 2) 얼굴 특징점 검출 단계에서는 [식 6]을 이용한 방법을 사용할 수 있으며, 합성곱 신경망(Convolutional Neural Network)를 사용할 수 있다. 또한 모든 단계에서 합성곱 신경망(Convolutional Neural Network)를 사용할 수 있다. 3) 감정 및 표정을 포함한 얼굴 특성 인식의 단계에서 합성곱 신경망(Convolutional Neural Network)를 사용할 수 있다.Finally, in order to utilize the user's face information from the facial image, the present invention analyzes the facial information through the steps of 1) face detection, 2) facial feature point detection, and 3) facial feature recognition including emotion and facial expression. In this case, 1) a template-based detection method using Adaboost (Adaptive Boosting) can be used for fast and accurate processing in the face detection step. 2) In the facial feature point detection step, a method using [Equation 6] can be used and a Convolutional Neural Network can be used. You can also use Convolutional Neural Network at all stages. 3) Convolutional Neural Network can be used at the stage of face recognition including emotion and facial expression.
여기서 Adaboost와 나선형 신경망은 모두 기계 학습(Machine Learning)에 사용되는 알고리즘이다. Adaboost는 약한 분류기를 연속적으로 결합하여 더 강력한 분류기를 만드는 방법을 의미하고, 다른 종류의 학습 알고리즘과 같이 쓰임으로써 그 성능을 증대시킬 수 있다. 또한, 합성곱 신경망은 다량의 데이터 속에서 일정한 패턴을 파악해 낼 수 있도록 해주는 인공 신경망(Artificial Neural Network)의 일종이다.Here, both Adaboost and Spiral Neural Network are algorithms used for Machine Learning. Adaboost means to create a stronger classifier by combining weak classifiers successively, and it can be increased by using it with other kinds of learning algorithms. In addition, the articulated neural network is a type of artificial neural network that allows a certain pattern to be grasped in a large amount of data.
또한, 분석한 얼굴 정체성값(wid), 또는 분석한 얼굴 형태(Xi 2d)로부터 사용자의 얼굴 특성(눈 크기, 코 크기, 얼굴 높이 등)을 분석한다. 분석된 얼굴 특성을 기반으로 분석된 사용자의 얼굴 정체성값을 강조하여 3D얼굴 모델의 얼굴 특성을 강조한다. 또한, 사용자 얼굴 정보를 실시간으로 받아들여 해당 영상에서 사용자의 [식 5] 또는 [식 6]을 실시간으로 풀어내어 사용자의 얼굴 모델을 업데이트한다. 사용자의 얼굴 모델을 업데이트하면서, wid의 변화가 어느 정도 수렴했을 경우, wid를 고정시키고 [식 5] 또는 [식 6]을 푼다.The user's facial characteristics (eye size, nose size, face height, etc.) are analyzed from the analyzed facial identity value (w id ) or the analyzed facial shape (X i 2d ). We emphasize facial characteristics of 3D face model by emphasizing user 's face identity value based on analyzed facial characteristics. In addition, the user's face information is received in real time and the user's [Formula 5] or [Formula 6] is solved in real time to update the user's face model. When updating the face model of the user, when the change of w id converges to some extent, fix w id and solve [Expression 5] or [Expression 6].
마찬가지로 사용자의 얼굴 모델을 업데이트하면서, Wexp의 변화가 어느 정도 수렴했을 경우, wid를 고정시키고 [식 5] 또는 [식 6]을 푼다.Similarly, while updating the face model of the user, if the change of W exp converges to some extent, fix w id and solve [Eq. 5] or [Eq. 6].
또한, 분석된 얼굴 모델의 질감(texture, 텍스쳐) 값을 기정의(pre-defined)된 현재 스토리텔링 콘텐츠의 질감(texture, 텍스쳐) 분포 값과 비슷한 분포를 가지도록 변환(mapping)을 시켜서, 분석된 사용자의 얼굴 모델의 질감(texture, 텍스쳐)가 현재 스토리텔링 콘텐츠의 질감(texture, 텍스쳐)과 어울리도록 만든다. 이 때, k-means clustering과 같은 군집 알고리즘을 사용할 수 있다. 혹은 영상 콘텐츠의 스타일을 다른 영상 콘텐츠에다가 입히는 합성곱 신경망(Convolutional Neural Network)기법을 사용할 수 있다.In addition, the texture of the analyzed face model is mapped to have a distribution similar to the texture of the pre-defined current storytelling contents, The texture of the user's face model is matched with the texture of the current storytelling contents. In this case, a clustering algorithm such as k-means clustering can be used. Or a Convolutional Neural Network technique in which styles of image contents are applied to other image contents.
[식 5], [식 6], [식 7]을 통해 분석한 사용자 얼굴의 실시간 회전 정보를 일정 가중치를 주어서 현재 스토리텔링 콘텐츠 상의 주인공의 기준 얼굴 움직임에 영향을 미치도록 더할 수 있다.The real-time rotation information of the user's face analyzed through [Expression 5], [Expression 6], and [Expression 7] can be added to influence the reference face motion of the main character on the current storytelling content by giving a predetermined weight.
또한, [식 5] 또는 [식 7]을 통해 분석한 사용자 얼굴의 실시간 표정 정보에 일정 가중치를 주어서 현재 스토리텔링 콘텐츠 상의 주인공의 기준 표정에 영향을 미치도록 더할 수 있다.In addition, the real-time facial expression information of the user's face analyzed through [Formula 5] or [Formula 7] can be added to affect the reference expression of the main character on the current storytelling content by giving a predetermined weight.
또한, 분석한 사용자 얼굴의 실시간 감정 정보를 일정 가중치를 주어서 현재 스토리텔링 콘텐츠 상의 주인공의 기준 감정에 영향을 미치도록 더할 수 있다. 또한 해당 인식된 감정 정보는 스토리텔링 콘텐츠를 구성하고 있는 서브 콘텐츠들의 변화에 영향을 줄 수 있다.In addition, real-time emotion information of the analyzed user's face can be added to influence the reference emotion of the main character on the current storytelling content by giving a certain weight. In addition, the perceived emotion information may affect changes in the sub-contents constituting the storytelling contents.
또한, 저장되어 있는 사용자의 스토리텔링 콘텐츠 interaction 정보를 분석하여 다음 콘텐츠를 추천할 수 있다. 이때, 분석 지표는 사용자의 스토리텔링 콘텐츠 이해력 및 일반적인 통용 지식이 될 수 있다. 사용자의 스토리텔링 콘텐츠 interaction 정보를 분석한 정보를 사용자 데이터베이스(미도시)에 저장한다.Also, it is possible to recommend the next contents by analyzing the stored story information contents interaction information of the user. At this time, the analysis index can be a comprehension of the contents of the user's storytelling contents and general knowledge. The information analyzing the user's storytelling content interaction information is stored in a user database (not shown).
도 8은 본 발명의 실시예에 따라 분석된 사용자의 얼굴 모델을 콘텐츠의 색상과 스타일 등 환경에 어울리게 변형하여 콘텐츠 상에 투영하거나 삽입하는 것을 예시한 그림이다.8 is a diagram illustrating an example of projecting or inserting a user's facial model analyzed according to an embodiment of the present invention on a content by modifying the facial model of the user according to an environment such as color and style of the content.
본 발명은, 도 8(a)와 같은 사용자에 대하여, 도 8(b)에 도시한 바와 같이 본 발명의 실시예에 따라 시스템이 사용자의 얼굴 특성을 3차원 혹은 2차원으로 분석한 후, 도 8(c)에 도시한 바와 같이 분석된 얼굴 특성을 콘텐츠의 색상과 스타일 등 콘텐츠의 환경에 어울리게 변형하여 콘텐츠 상에 투영하거나 삽입할 수 있게 된다.8A, the system analyzes the face characteristics of the user in three dimensions or two dimensions according to an embodiment of the present invention, as shown in Fig. 8B, As shown in FIG. 8 (c), the analyzed facial characteristics can be projected or inserted onto the contents by modifying the facial characteristics corresponding to the environment of the contents such as the color and style of the contents.
한편, 영상에 나타난 얼굴을 3차원 얼굴 모델로 복원한다는 것은, 얼굴 정체성값(wid)와 얼굴 표정값(wexp)를 추정한다는 것이다. 추정된 얼굴 정체성값(wid)에는 해당 얼굴의 특성들 (넓은 얼굴인지 긴 얼굴인지, 코 높이가 높은 얼굴인지 낮은 얼굴인지, 미간이 긴지 짧은지 등 ..)이 연속된 수치값으로 나타내어진다. 이때, 그 수치값들 중 두드러진 값(예컨대, 매우 크거나 매우 작은 값)을 더욱 크게 하거나 작게 하여서 복원된 얼굴 모델의 특성을 강조할 수 있다(예컨대, 얼굴이 긴 사람은 더 길게, 얼굴이 짧은 사람은 더 짧게 할 수 있음). 따라서 위의 과정을 따라 콘텐츠의 색상과 스타일에 어울리도록 사용자의 얼굴 특성을 강조하고 변형하여 콘텐츠에 반영할 수 있다. 즉, 추정되는 얼굴 정체성값(wid)와 얼굴 표정값(wexp)의 특성값을 강조하여 3D 얼굴 모델에 반영되도록 할 수 있는 것이다.On the other hand, restoring the face shown in the image to the 3D face model is to estimate the face identity value (w id ) and the facial expression value (w exp ). The estimated facial identity value (w id ) is represented by a consecutive numerical value of the characteristics of the face (wide face, long face, face with high nose height, low face, long face with long face, etc.) . At this time, it is possible to emphasize the characteristics of the reconstructed face model by increasing or decreasing the conspicuous value (for example, very large or very small value) among the numerical values (for example, People can be shorter). Accordingly, the user's facial characteristics can be emphasized and modified to match the color and style of the contents according to the above process. That is, the feature values of the estimated face identity value (w id ) and the facial expression value (w exp ) can be emphasized and reflected in the 3D face model.
한편, 본 발명의 또 다른 실시예에서는 콘텐츠 상에 이미 그려져(존재하고) 있는 얼굴 특성을 분석하여 사용자의 얼굴 특성이 콘텐츠 상에 이미 그려져 있는 얼굴 특성에 맞도록 변경하여 반영할 수도 있을 것이다. 따라서 복원된 사용자의 얼굴 정보에서, 두드러진 사용자의 얼굴 특성요소를 강조하는 것이 아니라, 콘텐츠 상에 이미 그려져(존재하고) 있는 얼굴의 특성 요소를 복원된 사용자의 얼굴 정보에 강조할 수도 있다. 예를 들어, 사용자의 얼굴이 둥근 얼굴 형태이지만, 동화 콘텐츠 상에 존재했던 얼굴은 긴 얼굴 형태였다면, 복원된 사용자의 얼굴 형태를 약간 길게 반영을 해서 동화 콘텐츠에 존재했던 얼굴과 유사한 형태로 동화 콘텐츠 상에 이입을 하는 것이 더 어울리기 때문이다. Meanwhile, in another embodiment of the present invention, facial characteristics that are already drawn (existing) on the content may be analyzed and the facial characteristics of the user may be changed to reflect the facial characteristics already drawn on the content. Therefore, in the restored face information of the user, it is possible not to emphasize the facial characteristic element of the prominent user, but to emphasize the facial characteristic element of the face that is already drawn (existing) on the contents to the restored face information of the user. For example, if the face of the user is a round face but the face existing on the fairytale content is a long face, the face shape of the restored user is reflected for a long time, This is because it is better to transfer to the top.
도 10은 본 발명의 실시예에 따라 동화화된 3차원 캐릭터 얼굴을 생성하는 것을 예시한 그림이다.FIG. 10 is a diagram illustrating creation of a three-dimensional character face that has been animated according to an embodiment of the present invention.
도 10(a)는 사용자의 입력된 얼굴 영상을 예시하고, 도 10(b)는 입력된 사용자의 얼굴 영상으로부터 복원된 3차원 얼굴 영상을 예시하고, 도 10(c)는 분석 복원된 얼굴 영상을 콘텐츠의 색상과 스타일에 어울리도록 가공 변형한 것을 예시하고, 도 10(d)는 분석 복원된 얼굴 영상에서 얼굴 특성을 강조하여 가공 변형한 것을 예시하며, 도 10(e)는 분석 복원된 얼굴 영상에서 얼굴 표정을 가공 변형한 후 이를 반영하여 콘텐츠 상에 투영한 것을 예시한 그림이다.FIG. 10 (a) illustrates an input face image of a user, FIG. 10 (b) illustrates a reconstructed three-dimensional face image from a face image of an input user, FIG. 10 (d) illustrates an example in which the face characteristic is emphasized in the analysis restored face image, and FIG. 10 (e) This is an illustration that the facial expression is processed and transformed in the image and reflected on the content.
상술한 본 발명의 설명에서의 실시예는 여러 가지 실시가능한 예중에서 당업자의 이해를 돕기 위하여 가장 바람직한 예를 선정하여 제시한 것으로, 이 발명의 기술적 사상이 반드시 이 실시예만 의해서 한정되거나 제한되는 것은 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 변화와 변경 및 균등한 타의 실시예가 가능한 것이다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. It is intended that the present invention cover the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents.
110:얼굴 기준값 저장 모델
120:스토리텔링 콘텐츠 저장부
130:사용자 얼굴 영상 생성부
140:사용자 얼굴 분석부
150:스토리텔링 콘텐츠 진행부110: Face value storage model
120: Storytelling content storage unit
130: User face image generation unit
140: user facial analysis unit
150: Storytelling Content Progressive Department
Claims (16)
스토리텔링 콘텐츠를 즐기는 사용자의 얼굴을 촬영하여 사용자 얼굴 영상을 생성하는 사용자 얼굴 영상 생성부;
각 기준 얼굴의 얼굴 형상을 연속된 수치값으로 표현한 얼굴 정체성값과, 각 기준 얼굴의 얼굴 표정을 연속된 수치값으로 표현한 얼굴 표정값이 요소화된 얼굴 모델이 저장되어 있는 얼굴 기준값 저장 모델;
상기 사용자 얼굴 영상과 매칭되는 얼굴 정체성값과 얼굴 표정값을 상기 얼굴 기준값 저장 모델을 기반으로 추정하여 사용자 얼굴 정체성값과 사용자 얼굴 표정값으로 결정하는 사용자 얼굴 분석부; 및
상기 사용자 얼굴 정체성값과 상기 사용자 얼굴 표정값을 반영하여 상기 사용자 얼굴 영상을 가공하고, 상기 가공된 사용자 얼굴 영상을 이입하여 스토리텔링 콘텐츠로서 출력하는 스토리텔링 콘텐츠 진행부;를 포함하되,
상기 사용자 얼굴 분석부는, 상기 사용자 얼굴 영상의 픽셀값을 이용하여 사용자 얼굴의 피부 색상 분포를 파악하고, 출력중인 스토리텔링 콘텐츠의 색상, 스타일 및 질감에 맞춰 사용자 얼굴의 피부 색상 분포와 질감을 변형하고,
상기 스토리텔링 콘텐츠 진행부는, 상기 변형된 사용자 얼굴의 피부 색상 분포와 질감을 상기 가공된 사용자 얼굴 영상에 반영하여 상기 스토리텔링 콘텐츠를 출력하는 것을 특징으로 하는, 스토리텔링 콘텐츠 툴 제공 단말기.
A storytelling contents storage unit having storytelling contents used in storytelling;
A user facial image generating unit for capturing a face of a user enjoying the storytelling contents to generate a user facial image;
A face reference value storage model in which a face identity representing a face shape of each reference face is represented by successive numerical values and a face expression value representing a facial expression value expressed by successive numerical values of each reference face is stored;
A user facial analysis unit for estimating a face identity value and a facial expression value matching with the user facial image based on the face reference value storage model and determining the user facial identity value and the user facial expression value; And
And a storytelling content advancing unit for processing the user's face image by reflecting the user's face identity value and the user's facial expression value, and transmitting the processed user's face image as a storytelling content,
The user facial analysis unit analyzes the skin color distribution of the user's face using the pixel values of the user facial image and transforms the skin color distribution and texture of the user's face in accordance with the color, ,
Wherein the storytelling content progress unit reflects the skin color distribution and texture of the modified user's face on the processed user face image to output the storytelling content.
상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 상기 스토리텔링 콘텐츠의 얼굴 모델에 과장 및 변형시켜 반영하여 출력하는 스토리텔링 콘텐츠 툴 제공 단말기.
The contents processing system according to claim 1,
And outputting the user facial identity value and the user facial expression value to the facial model of the storytelling contents, and reflecting the result.
사용자의 신상정보에 맞추어서 자막 콘텐츠를 수정하여 출력함을 특징으로 하는 스토리텔링 콘텐츠 툴 제공 단말기.
The contents processing system according to claim 1,
And outputting the modified subtitle contents according to the user's personal information.
스토리텔링 콘텐츠를 즐기는 사용자가 아닌 다른 사람의 얼굴 정보를 스토리텔링 콘텐츠 서버로부터 수신하여 타인 얼굴 정보로서 저장하는 타인 얼굴 정보 모델;을 포함하며,
상기 스토리텔링 콘텐츠 진행부는, 상기 타인 얼굴 정보가 반영된 타인 얼굴 모델을 상기 가공된 사용자 얼굴 영상과 함께 스토리텔링 콘텐츠에 출력함을 특징으로 하는 스토리텔링 콘텐츠 툴 제공 단말기.
The storytelling contents tool providing terminal of claim 1,
And a third person's face information model for receiving face information of a person other than the user who enjoys the storytelling contents from the storytelling contents server and storing the received face information as third person's face information,
Wherein the storytelling content progressing unit outputs the other's face model reflecting the other's face information to the storytelling contents together with the processed user's face image.
출력된 스토리텔링 콘텐츠를 프린팅 가능한 다큐먼트 파일로 변환하는 변환출력부를 더 포함하는 스토리텔링 콘텐츠 툴 제공 단말기.
The storytelling contents tool providing terminal of claim 1,
And a conversion output unit for converting the outputted storytelling contents into a printable document file.
(b) 상기 사용자 얼굴 영상과 얼굴 기준값 저장 모델을 매칭하여, 사용자 얼굴 형상을 연속된 수치값으로 표현한 사용자 얼굴 정체성값과, 사용자 얼굴 표정을 연속된 수치값으로 표현한 사용자 얼굴 표정값을 결정하는 과정; 및
(c) 상기 사용자 얼굴 정체성값과 상기 사용자 얼굴 표정값을 반영하여 상기 사용자 얼굴 영상을 가공하고, 상기 가공된 사용자 얼굴 영상을 이입하여 스토리텔링 콘텐츠로서 출력하는 과정을 포함하되,
상기 (c) 과정은,
(c1) 상기 사용자 얼굴 영상의 픽셀값을 이용하여 사용자 얼굴의 피부 색상 분포를 파악하고, 출력중인 스토리텔링 콘텐츠의 색상, 스타일 및 질감에 맞춰 사용자 얼굴의 피부 색상 분포와 질감을 변형하는 과정; 및
(c2) 상기 변형된 사용자 얼굴의 피부 색상 분포와 질감을 상기 가공된 사용자 얼굴 영상에 반영하여 상기 스토리텔링 콘텐츠를 출력하는 과정을 포함하며,
상기 얼굴 기준값 저장 모델은 각 기준 얼굴의 얼굴 형상을 연속된 수치값으로 표현한 얼굴 정체성값과, 각 기준 얼굴의 얼굴 표정을 연속된 수치값으로 표현한 얼굴 표정값이 요소화된 얼굴 모델이 저장되어 있는 것을 특징으로 하는, 스토리텔링 콘텐츠 제공 방법.
(a) a step of photographing a face of a user enjoying the storytelling contents to generate a user face image;
(b) determining a face facial expression value of a user expressing the user facial expression as a continuous numerical value by matching the user facial image and the face reference value storage model to represent the user facial shape as a continuous numerical value, ; And
(c) processing the user's face image reflecting the user's face identity value and the user's facial expression value, and transmitting the processed user's face image as a storytelling content,
The step (c)
(c1) determining a skin color distribution of the user's face using the pixel value of the user's face image, and transforming the skin color distribution and texture of the user's face according to the color, style, and texture of the storytelling content being output; And
(c2) reflecting the skin color distribution and texture of the deformed user's face on the processed user face image to output the story telling contents,
The face reference value storage model stores a face identity value obtained by expressing the face shape of each reference face as a continuous numerical value and a facial expression value representing a facial expression value expressed by successive numerical values of the facial expression of each reference face Wherein the story-telling content providing method comprises the steps of:
상기 얼굴 기준값 저장 모델은, 얼굴 형상별로 그리고 표정별로 촬영된 다양한 사람들의 얼굴 영상 데이터로부터 PCA(Principal Component Analysis), SVD(Singular Value Decomposition), HOSVD(High Order Singular Value Decomposition) 중 적어도 하나를 포함하는 데이터 분석 방법을 통해 데이터의 얼굴 정보를 얼굴 정체성값과 얼굴 표정값의 연속된 수치값으로 요소화시켜 구축된 것을 특징으로 하는 스토리텔링 콘텐츠 제공 방법
The method of claim 7,
The face reference value storage model includes at least one of Principal Component Analysis (PCA), Singular Value Decomposition (SVD), and High Order Singular Value Decomposition (HOSVD) from face image data of various people photographed for each face shape and facial expression Wherein the facial information of the data is constructed by elementizing the facial information of the data by the continuous numerical value of the facial identity value and the facial expression value through the data analysis method
상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 3D 얼굴 모델에 반영하거나, 또는 상기 사용자 얼굴 정체성값과 사용자 얼굴 표정값을 2D 얼굴 모델에 반영하여 상기 스토리텔링 콘텐츠에 출력하는 스토리텔링 콘텐츠 제공 방법.
The method of claim 7, wherein the step (c)
Reflecting the user facial identity value and the user facial expression value to the 3D facial model or reflecting the user facial identity value and the user facial expression value to the 2D facial model to output to the storytelling contents.
V는 3D 얼굴 모델, C는 상기 얼굴 기준값 저장 모델로부터 학습한 얼굴 특징 분포 핵심 구조 모델, wid는 사용자 얼굴 정체성값, wexp는 사용자 얼굴 표정값이라 할 때, V=g(C,wid,wexp) 함수를 이용하여 반영하는 것을 특징으로 하는 스토리텔링 콘텐츠 제공 방법.
The method of claim 9, wherein reflecting the user facial identity value and the user facial expression value to the 3D facial model comprises:
V is a 3D face model, C is when the core structure model learning facial feature distribution from the face reference value storage model, w id is user face identity value, w exp user facial expression value, V = g (C, w id , w exp ) function.
얼굴 정체성값(wid)와 얼굴 표정값(wexp)의 특성값을 강조하여 3D 얼굴 모델에 반영하는 것을 특징으로 하는 스토리텔링 콘텐츠 제공 방법.
11. The method of claim 10, wherein reflecting the user facial identity value and the user facial expression value to the 3D facial model comprises:
Wherein the characteristic values of the face identity value (w id ) and the face expression value (w exp ) are emphasized and reflected in the 3D face model.
상기 V=g(C,wid,wexp) 함수가 반영된 3D 얼굴 모델(V)을 화면상에 출력할 경우, F는 3D 얼굴 모델이 2차원 화면에 투영되어 출력되는 모델, s는 얼굴의 크기를 조정하는 얼굴 크기 정보, MP(f)는 3D 위치를 화면상의 2D 위치로 매핑하는 카메라 함수, R은 얼굴을 회전시키는 얼굴 회전 정보, T는 얼굴의 위치를 이동시키는 얼굴 위치 정보라 할 때,
에 의해 산출되는 모델을 화면에 출력하는 것을 특징으로 하는 스토리텔링 콘텐츠 제공 방법.
11. The method of claim 10, wherein the step (c)
In the case of outputting a 3D face model (V) reflecting the function V = g (C, w id , w exp ) on the screen, F is a model in which a 3D face model is projected on a two- (F) is a camera function for mapping the 3D position to the 2D position on the screen, R is the face rotation information for rotating the face, and T is the face position information for moving the position of the face time,
And outputting the model calculated by the modeling unit to the screen.
2차원으로 투영된 얼굴 기준값 저장 모델에 상기 사용자 얼굴 영상에서 분석된 얼굴 정체성값과 얼굴 표정값을 반영하는 것을 특징으로 하는 스토리텔링 콘텐츠 제공 방법.
The method of claim 9, wherein reflecting the user facial identity value and the user facial expression value to the 2D facial model comprises:
Wherein the facial identity value and the facial expression value analyzed in the user facial image are reflected in the two-dimensionally projected face reference value storage model.
얼굴 정체성값 및 표정값 결정 과정으로부터 유추한 사용자의 얼굴정보의 특성을 과장하거나 사용자 얼굴 정보의 피부 정보를 포함한 질감정보를 스토리텔링 콘텐츠의 질감과 어울리게 재가공하는 사용자 얼굴 정보 재가공 과정;을 포함하는 스토리텔링 콘텐츠 제공 방법.
8. The method of claim 7, wherein, prior to step (c)
A step of re-processing the user's face information which exaggerates the characteristics of the user's facial information derived from the facial identity value and the facial expression determination process or re-processes the texture information including the skin information of the user's face information to match the texture of the story telling contents. How to provide teled content.
출력된 스토리텔링 콘텐츠를 프린팅 가능한 다큐먼트 파일로 변환하는 과정을 더 포함하는 스토리텔링 콘텐츠 제공 방법.
The method according to claim 7,
And converting the outputted storytelling contents into a printable document file.
m은 얼굴 정체성값(wid), 얼굴 표정값(wexp), 얼굴 크기 정보에서의 크기값(s), 얼굴 위치 정보에서의 병진값(tx,ty), 얼굴 회전 정보에서의 회전값(rx,ry,rz), 카메라 초점거리(f)를 포함하는 구성요소의 집합이고,
F는 m의 요소로부터 생성되는 2차원 영상에 투영된 모델, I는 입력 영상, V는 얼굴 정체성값(wid)과 얼굴 표정값(wexp)으로 요소화된 3D 얼굴 모델, x2d와 x3d는 각각 입력된 모델에서 기정의된 특징점의 위치를 추출하는 함수, A는 3D 얼굴 모델의 텍스쳐(texture) 학습 모델, 는 입력 정보로부터 구별되는 특징(feature)를 추출하는 특징 추출 연산자라고 할 때,
에 의해 상기 사용자 얼굴 정체성값과 상기 사용자 얼굴 표정값이 결정되는 것을 특징으로 하는 스토리텔링 콘텐츠 제공 방법.
The method of claim 7, wherein the step (c)
m represents the face identity value (w id ), the facial expression value (w exp ), the size value (s) in the face size information, the translation value (t x , t y ) Is a set of components including values r x , r y , r z , and camera focal length f,
F is a model projected on a two-dimensional image generated from the elements of m, I is an input image, V is a 3D face model elementized by a face identity value (w id ) and a facial expression value (w exp ), x 2d and x 3d is a function for extracting the positions of predetermined feature points in the input model, A is a texture learning model of the 3D face model, Is a feature extraction operator that extracts features distinguished from input information,
Wherein the user's face identification value and the user's facial expression value are determined by the user's face identification value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170114563A KR101902553B1 (en) | 2017-09-07 | 2017-09-07 | Terminal for providing storytelling contents tool and Method for providing storytelling |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170114563A KR101902553B1 (en) | 2017-09-07 | 2017-09-07 | Terminal for providing storytelling contents tool and Method for providing storytelling |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101902553B1 true KR101902553B1 (en) | 2018-09-28 |
Family
ID=63721647
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170114563A KR101902553B1 (en) | 2017-09-07 | 2017-09-07 | Terminal for providing storytelling contents tool and Method for providing storytelling |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101902553B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102180576B1 (en) * | 2020-05-18 | 2020-11-18 | 주식회사 일루니 | Method and apparatus for providing re-programmed interactive content based on user playing |
KR102318111B1 (en) * | 2020-11-17 | 2021-10-27 | 주식회사 일루니 | Method and apparatus for generating story book which provides sticker reflecting user's face to character |
WO2024091021A1 (en) * | 2022-10-26 | 2024-05-02 | 삼성전자 주식회사 | Electronic device and operating method therefor |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011034344A (en) * | 2009-07-31 | 2011-02-17 | Fujifilm Corp | Image processing apparatus and method, data processing device and method, and program |
KR101734212B1 (en) * | 2015-11-26 | 2017-05-11 | 포항공과대학교 산학협력단 | Facial expression training system |
-
2017
- 2017-09-07 KR KR1020170114563A patent/KR101902553B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011034344A (en) * | 2009-07-31 | 2011-02-17 | Fujifilm Corp | Image processing apparatus and method, data processing device and method, and program |
KR101734212B1 (en) * | 2015-11-26 | 2017-05-11 | 포항공과대학교 산학협력단 | Facial expression training system |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102180576B1 (en) * | 2020-05-18 | 2020-11-18 | 주식회사 일루니 | Method and apparatus for providing re-programmed interactive content based on user playing |
WO2021235636A1 (en) * | 2020-05-18 | 2021-11-25 | 주식회사 일루니 | Method and apparatus for providing interactive content reprogrammed on basis of playing of user |
US11402975B2 (en) | 2020-05-18 | 2022-08-02 | Illuni Inc. | Apparatus and method for providing interactive content |
KR102318111B1 (en) * | 2020-11-17 | 2021-10-27 | 주식회사 일루니 | Method and apparatus for generating story book which provides sticker reflecting user's face to character |
US11282275B1 (en) | 2020-11-17 | 2022-03-22 | Illuni Inc. | Apparatus and method for generating storybook |
WO2022107980A1 (en) * | 2020-11-17 | 2022-05-27 | 주식회사 일루니 | Method and device for generating storybook provided with sticker reflecting user face in character |
WO2024091021A1 (en) * | 2022-10-26 | 2024-05-02 | 삼성전자 주식회사 | Electronic device and operating method therefor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11790589B1 (en) | System and method for creating avatars or animated sequences using human body features extracted from a still image | |
CN108573527B (en) | Expression picture generation method and equipment and storage medium thereof | |
Mattheyses et al. | Audiovisual speech synthesis: An overview of the state-of-the-art | |
US7027054B1 (en) | Do-it-yourself photo realistic talking head creation system and method | |
US11783524B2 (en) | Producing realistic talking face with expression using images text and voice | |
US6919892B1 (en) | Photo realistic talking head creation system and method | |
Ersotelos et al. | Building highly realistic facial modeling and animation: a survey | |
Chuang et al. | Mood swings: expressive speech animation | |
US8553037B2 (en) | Do-It-Yourself photo realistic talking head creation system and method | |
KR101306221B1 (en) | Method and apparatus for providing moving picture using 3d user avatar | |
CN113256821B (en) | Three-dimensional virtual image lip shape generation method and device and electronic equipment | |
US20120130717A1 (en) | Real-time Animation for an Expressive Avatar | |
CN113538659B (en) | Image generation method, device, storage medium and equipment | |
Alkawaz et al. | Blend shape interpolation and FACS for realistic avatar | |
KR101902553B1 (en) | Terminal for providing storytelling contents tool and Method for providing storytelling | |
Theobald et al. | Near-videorealistic synthetic talking faces: Implementation and evaluation | |
Paier et al. | Example-based facial animation of virtual reality avatars using auto-regressive neural networks | |
CN112511853A (en) | Video processing method and device, electronic equipment and storage medium | |
Wampler et al. | Dynamic, expressive speech animation from a single mesh | |
Perng et al. | Image talk: a real time synthetic talking head using one single image with chinese text-to-speech capability | |
Müller et al. | Realistic speech animation based on observed 3-D face dynamics | |
CN116524087A (en) | Audio-driven speaker video synthesis method and system for fusing nerve radiation field | |
Zell et al. | Volumetric video-acquisition, compression, interaction and perception | |
Wang et al. | Hierarchical facial expression animation by motion capture data | |
Tiddeman et al. | Prototyping and transforming visemes for animated speech |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |