KR20120044911A - Affect producing servece providing system and method, and device for producing affect and method therefor - Google Patents
Affect producing servece providing system and method, and device for producing affect and method therefor Download PDFInfo
- Publication number
- KR20120044911A KR20120044911A KR1020110110704A KR20110110704A KR20120044911A KR 20120044911 A KR20120044911 A KR 20120044911A KR 1020110110704 A KR1020110110704 A KR 1020110110704A KR 20110110704 A KR20110110704 A KR 20110110704A KR 20120044911 A KR20120044911 A KR 20120044911A
- Authority
- KR
- South Korea
- Prior art keywords
- emotional
- emotion
- word
- word dictionary
- information
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000002996 emotional effect Effects 0.000 claims abstract description 300
- 230000008451 emotion Effects 0.000 claims abstract description 275
- 230000005236 sound signal Effects 0.000 claims description 21
- 238000004519 manufacturing process Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 6
- 238000012790 confirmation Methods 0.000 claims description 4
- 238000009877 rendering Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 abstract description 5
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 4
- 241000282414 Homo sapiens Species 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 210000003454 tympanic membrane Anatomy 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000169170 Boreogadus saida Species 0.000 description 1
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 206010011469 Crying Diseases 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 241000282320 Panthera leo Species 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0235—Character input methods using chord techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/075—Musical metadata derived from musical analysis or for use in electrophonic musical instruments
- G10H2240/085—Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Marketing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Acoustics & Sound (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- Child & Adolescent Psychology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
본 발명의 실시예는 감성연출 서비스 제공 시스템 및 그 제공방법, 및 감성연출이 가능한 장치 및 그 감성연출 방법에 관한 것이다. 보다 상세하게는, 확률모델 방법을 이용하여 사용자의 감성상태를 추론하고 추론된 결과에 따라 적응적으로 감성을 표출할 수 있도록 하는 지능형 감성 추론모듈을 이용함으로써, 네트워크로 연결된 타인 단말기에 지능적으로 감성연출을 할 수 있는 감성연출 서비스 제공시스템 및 그 제공방법, 및 감성연출이 가능한 장치 및 그 감성연출 방법에 관한 것이다.An embodiment of the present invention relates to a system for providing emotional expression service, a method of providing the same, an apparatus capable of emotional expression and an emotional expression method thereof. More specifically, by using the intelligent emotional reasoning module that infers the emotional state of the user by using the probabilistic model method and adaptively expresses the emotion according to the inferred result, the emotional terminal intelligently affects the other terminal connected to the network. Emotional expression service providing system capable of directing and a method of providing the same, and an apparatus capable of emotional expression and the emotional expression method.
최근, 인터넷의 보급은 무선 인터넷으로까지 널리 확장되어 보급되고 있으며, 그에 따라 사용자들은 유선 컴퓨터를 통해서뿐만 아니라, PDA(Personal Digital Assistant), 노트북, 휴대폰, 스마트폰 등과 같은 이동통신 단말기를 이용하여 이동하는 중에도 다른 유선 또는 무선 통신 단말기의 사용자와 통신이 가능하게 되었다. 이와 같은 유선 및 무선 통신은 단순히 음성 신호나 데이터 파일의 교환에 그치지 않고, 메신저를 이용하여 문자로 다른 사용자와 대화를 하거나 자신 또는 다른 통신 사용자의 블로그(Blog)를 방문하여 문자기록 작성, 이미지 또는 동영상 업로드 등의 활동을 통해 온라인상의 새로운 커뮤니티(Community)를 형성하기도 한다.Recently, the spread of the Internet has been widely extended to the wireless Internet, so that users can move not only through a wired computer but also by using a mobile communication terminal such as a PDA (Personal Digital Assistant), a notebook, a mobile phone, a smartphone, and the like. In the meantime, it is possible to communicate with users of other wired or wireless communication terminals. Such wired and wireless communication is not just an exchange of voice signals or data files, but a messenger is used to communicate with other users by text or visit a blog of himself or another communication user to create a text record, image or Other activities, such as uploading videos, form a new community online.
이와 같이 온라인상에 형성된 커뮤니티 내의 커뮤니케이션 활동 중에는 오프라인에서와 마찬가지로 자신의 감정상태를 다른 사용자에게 표현하거나 다른 사용자의 감정 상태를 추측할 필요가 종종 있다. 이를 위해 온라인상의 커뮤니티 서비스 제공업자들은 다양한 방법으로 사용자의 감정상태를 표현하거나 추측할 수 있도록 하고 있다. 예를 들어, 메신저를 이용한 커뮤니티 서비스 제공업자는 감정상태에 대응하는 다양한 이모티콘 선택메뉴를 제공하며, 사용자가 자신의 감정상태에 따라 이모티콘을 선택할 수 있도록 함으로써 대화창을 통해 사용자의 감정상태가 표시되도록 한다. 또한, 대화창 또는 게시판을 통해 사용자가 입력하는 문장 중에 특정 단어가 있는지를 검색하며 그 특정 단어가 검색되는 경우에는 그에 대응하는 아이콘이 표시되도록 함으로써 문장의 입력에 따른 감정표현이 자동으로 이루어지도록 하기도 한다.As described above, it is often necessary to express one's emotional state to another user or to guess the emotional state of another user in the communication activity in the community formed online. To this end, online community service providers are able to express or guess the emotional state of users in various ways. For example, a community service provider using a messenger provides various emoticon selection menus corresponding to emotional states, and allows a user to select an emoticon according to his or her emotional state so that the emotional state of the user is displayed through a chat window. . In addition, the user may search for a specific word in a sentence that the user inputs through a chat window or a bulletin board, and if the specific word is found, an icon corresponding to the specific word may be displayed so that the emotional expression is automatically performed according to the input of the sentence. .
그런데, 인간의 감정은 항상 고정되어 있는 것이 아니라, 상황이나 장소, 분위기 등에 따라 시시각각 변화되는 것이 일반적이며, 이와 같이 상황 또는 환경에 따라 변화되는 감정을 사용자가 매번 이모티콘을 선택하여 변경하기란 상당히 번거로운 일이다.However, human emotions are not always fixed, and are generally changed every time according to a situation, a place, or an atmosphere, and it is quite cumbersome for a user to select an emoticon each time to change the emotion that changes according to a situation or an environment. It's work.
또한, 감정 또는 느낌은 다분히 개인적인 속성을 가지는데, 이러한 인간의 감정을 좌우하는 심리적인 요인은 크게 놀람, 공포, 혐오, 노여움, 기쁨, 행복, 슬픔 등으로 나누어질 수 있다. 그런데, 동일한 상황에 대해서도 개개인이 느끼는 심리적인 요인은 다를 수 있으며, 표출되는 감성의 강도도 개인에 따라 다양한 차이를 나타낼 수 있다. 그럼에도 불구하고, 사용자가 입력하는 문장에서 특정 단어를 검색하여 획일적으로 표현하는 것은 해당 개인의 현재의 감정상태에 대한 정확한 표현이 되지 못하는 문제점이 있다.In addition, emotions or feelings have personal properties, and the psychological factors that influence human emotions can be largely divided into surprise, fear, disgust, anger, joy, happiness, and sadness. However, even in the same situation, the psychological factors of the individual may be different, and the intensity of the expressed emotion may also vary according to the individual. Nevertheless, searching for a specific word in a sentence input by the user and uniformly expressing a problem does not provide an accurate expression of the current emotional state of the individual.
본 발명의 실시예는 전술한 문제점을 해결하기 위하여 창안된 것으로서, 확률모델 방법을 이용하여 사용자의 감성상태를 추론하고 추론된 결과에 따라 적응적으로 감성을 표출할 수 있도록 하는 지능형 감성 추론모듈을 이용함으로써, 네트워크로 연결된 타인 단말기에 지능적으로 감성연출을 할 수 있는 감성연출 서비스 제공시스템 및 그 제공방법, 및 감성연출이 가능한 장치 및 그 감성연출 방법을 제공하는 것을 목적으로 한다.An embodiment of the present invention has been devised to solve the above-described problem, using an intelligent emotional inference module to infer the emotional state of the user using a probability model method and to express the emotion adaptively according to the inferred result It is an object of the present invention to provide an emotional rendering service providing system capable of intelligently expressing emotion to another terminal connected to a network, and a method of providing the same, and a device capable of expressing emotion and a method of expressing emotion.
전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 감성연출 서비스 제공 시스템은, 감성 단어에 대하여 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나를 포함하는 항목으로 분류하여 감성 단어사전으로 저장하는 단어사전 저장서버; 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 중의 적어도 하나를 이용하여 감성 단어사전에 분류된 각각의 감성 클래스에 대응하는 감성연출정보를 저장하는 연출정보 저장서버; 네트워크를 통해 연결된 사용자 단말기로부터 수신되는 텍스트 및 음성신호 중의 적어도 하나에 대하여 감성 단어사전에 매칭되는 감성을 추론하는 감성 추론서버; 연출정보 저장서버로부터 감성에 대응하는 감성 연출정보를 추출하는 연출정보 추출서버; 및 사용자 단말기로부터 목적지 단말기에 대한 정보를 수신하며, 사용자 단말기로부터 수신되는 텍스트 및 음성신호 중의 적어도 하나와 추출된 감성 연출정보를 상기 목적지 단말기로 전송하는 감성 연출서버를 포함하는 것을 특징으로 한다.Emotional expression service providing system according to an embodiment of the present invention for achieving the above object, the emotional word is classified into an item containing at least one of the emotion class, similarity, positive or negative, emotional strength emotional word dictionary Word dictionary storage server for storing as; A presentation information storage server for storing emotional presentation information corresponding to each emotional class classified in the emotional word dictionary using at least one of an avatar, an emoticon, a flash image, a moving picture, an image, and an audio signal; An emotion inference server for inferring an emotion matching an emotion word dictionary with respect to at least one of a text and an audio signal received from a user terminal connected through a network; A production information extraction server for extracting emotion production information corresponding to the emotion from the production information storage server; And an emotion directing server for receiving information on the destination terminal from the user terminal, and transmitting at least one of the text and voice signals received from the user terminal and the extracted emotion directing information to the destination terminal.
여기서, 감성 추론서버는, 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환하는 문장 변환부; 변환된 단어 및 구문 중 감성 단어사전에 매칭되는 단어 또는 구문을 확인하는 매칭 확인부; 및 변환된 단어 및 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델(Probabilistic model)을 적용하며, 적용된 확률 모델에 따라 감성을 추론하는 감성 추론부를 포함할 수 있다.Here, the emotional reasoning server, a sentence converter for grasping the word and phrase for the text and converts it to the basic form; Matching confirmation unit for checking a word or phrase matching the emotional word dictionary of the converted words and phrases; And a probabilistic model based on the co-occurrence of the converted words and phrases, and an emotional inference unit for inferring emotion according to the applied probabilistic model.
또한, 감성 추론서버는, 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여, 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나에 대응하는 감성을 저장하는 감성 저장부; 음성신호로부터 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출하는 음원 검출부; 및 검출된 음원에 기초하여 감성 저장부로부터 매칭되는 감성을 추론하는 감성 추론부를 포함할 수도 있다.In addition, the emotion reasoning server stores emotions corresponding to at least one of color, image, font, emoticon, avatar, video, voice, tone, sound quality, and sound wave, corresponding to each emotion class classified in the emotional word dictionary. Emotional storage unit; A sound source detector for detecting a sound source including at least one of a tone, sound quality, and sound wave from a voice signal; And an emotion inference unit that infers a matched emotion from the emotion storage unit based on the detected sound source.
전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 지능형 감성연출이 가능한 통신단말기는, 감성 단어에 대하여 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나를 포함하는 항목으로 분류하여 감성 단어사전으로 저장하는 단어사전 저장부; 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 중의 적어도 하나를 이용하여 감성 단어사전에 분류된 각각의 감성 클래스에 대응하는 감성연출정보를 저장하는 연출정보 저장부; 수신되는 텍스트 및 음성신호 중의 적어도 하나로부터 감성 단어사전에 매칭되는 감성을 추론하는 감성 추론부; 연출정보 저장부로부터 감성에 대응하는 감성 연출정보를 추출하는 연출정보 추출부; 및 목적지 단말기에 대한 정보를 수신하며, 수신되는 텍스트 및 음성신호 중의 적어도 하나와 추출된 감성 연출정보를 목적지 단말기로 전송하는 감성 연출부를 포함하는 것을 특징으로 한다.According to an embodiment of the present invention, a communication terminal capable of intelligent emotional expression according to an embodiment of the present invention may be classified into an item including emotional class, similarity, positive or negative, or emotional strength for an emotional word. A word dictionary storage for storing the word dictionary; A production information storage unit for storing emotional presentation information corresponding to each emotional class classified in the emotional word dictionary using at least one of an avatar, an emoticon, a flash image, a moving picture, an image, and an audio signal; An emotion inference unit for inferring an emotion matching the emotion word dictionary from at least one of the received text and voice signal; Directing information extraction unit for extracting the emotional directing information corresponding to the emotion from the directing information storage unit; And an emotion directing unit for receiving information on the destination terminal and transmitting at least one of the received text and voice signals and the extracted emotion directing information to the destination terminal.
여기서, 지능형 감성연출이 가능한 장치는, 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환하는 문장 변환부; 및 변환된 단어 및 구문 중 감성 단어사전에 매칭되는 단어 또는 구문을 확인하는 매칭 확인부를 더 포함하며, 감성 추론부는 변환된 단어 및 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델(Probabilistic model)을 적용하고, 적용된 확률 모델에 따라 감성을 추론할 수 있다.Here, the apparatus capable of intelligent emotional expression, sentence conversion unit for grasping the word and phrase for the text to convert to basic form; And a matching check unit for checking a word or phrase that matches the emotional word dictionary among the converted words and phrases, and the emotional inference unit based on the co-occurrence of the converted word and phrase (Probabilistic model). ), And emotion can be inferred according to the applied probability model.
또한, 지능형 감성연출이 가능한 장치는, 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여, 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나에 대응하는 감성을 저장하는 감성 저장부; 및 음성신호로부터 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출하는 음원 검출부를 더 포함하며, 감성 추론부는 검출된 음원에 기초하여 감성 저장부로부터 매칭되는 감성을 추론할 수도 있다.In addition, the device capable of intelligent emotional expression, corresponding to at least one of the color, image, font, emoticon, avatar, video, voice, tone, sound quality, sound waves corresponding to each emotion class classified in the emotional word dictionary Emotional storage unit for storing the; And a sound source detector that detects a sound source including at least one of a tone, sound quality, and sound wave from the voice signal, wherein the emotion inference unit may infer a matched emotion from the emotion storage unit based on the detected sound source.
전술한 목적을 달성하기 위한 본 발명의 실시예에 따른 감성연출 서비스 제공방법은, 감성 단어에 대하여 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나를 포함하는 항목으로 분류하여 감성 단어사전으로 저장하며, 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 중의 적어도 하나를 이용하여 감성 단어사전에 분류된 각각의 감성 클래스에 대응하는 감성 연출정보를 저장하는 단계; 네트워크를 통해 연결된 사용자 단말기로부터 수신되는 텍스트 및 음성신호 중의 적어도 하나에 대하여 감성 단어사전에 매칭되는 감성을 추론하는 단계; 저장된 감성 연출정보로부터 감성에 대응하는 감성 연출정보를 추출하는 단계; 사용자 단말기로부터 목적지 단말기에 대한 정보를 수신하는 단계; 및 사용자 단말기로부터 수신되는 텍스트 및 음성신호 중의 적어도 하나와 추출된 감성 연출정보를 목적지 단말기로 전송하는 단계를 포함하는 것을 특징으로 한다.Emotional expression service providing method according to an embodiment of the present invention for achieving the above object, emotional word dictionary classified by the item containing at least one of the emotion class, similarity, positive or negative, emotional strength Storing emotion directing information corresponding to each emotion class classified in the emotional word dictionary using at least one of an avatar, an emoticon, a flash image, a video, an image, and an audio signal; Inferring an emotion matched with an emotional word dictionary for at least one of a text and an audio signal received from a user terminal connected through a network; Extracting emotion directing information corresponding to the emotion from the stored emotion directing information; Receiving information about a destination terminal from a user terminal; And transmitting at least one of the text and voice signals received from the user terminal and the extracted emotion directing information to the destination terminal.
여기서, 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환하는 단계; 변환된 단어 및 구문 중 감성 단어사전에 매칭되는 단어 또는 구문을 확인하는 단계; 및 변환된 단어 및 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델(Probabilistic model)을 적용하는 단계를 더 포함할 수 있다. 이 경우, 추론단계는 적용된 상기 확률 모델에 따라 감성을 추론할 수 있다.Here, the step of identifying words and phrases with respect to the text and converting to basic form; Identifying a word or phrase that matches the emotional word dictionary among the converted words and phrases; And applying a probabilistic model based on the co-occurrence of the converted word and phrase. In this case, the inference step can infer emotion according to the applied probability model.
또한, 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여, 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나에 대응하는 감성을 저장하는 단계; 및 음성신호로부터 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출하는 단계를 포함할 수도 있다. 이 경우, 검출된 음원에 기초하여 감성 저장부로부터 매칭되는 감성을 추론할 수 있다.The method may further include storing emotions corresponding to at least one of a color, an image, a font, an emoticon, an avatar, a video, a voice, a tone, a sound quality, and a sound wave, corresponding to each emotion class classified in the emotion word dictionary; And detecting a sound source including at least one of a tone, sound quality, and sound wave from the voice signal. In this case, the matched emotion may be inferred from the emotion storage based on the detected sound source.
전술한 목적을 달성하기 위한 감성연출이 가능한 장치의 지능형 감성연출 방법은, 감성 단어에 대하여 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나를 포함하는 항목으로 분류하여 감성 단어사전으로 저장하며, 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 중의 적어도 하나를 이용하여 감성 단어사전에 분류된 각각의 감성 클래스에 대응하는 감성연출정보를 저장하는 단계; 수신되는 텍스트 및 음성신호 중의 적어도 하나로부터 감성 단어사전에 매칭되는 감성을 추론하는 단계; 저장된 감성 연출정보로부터 감성에 대응하는 감성 연출정보를 추출하는 단계; 목적지 단말기에 대한 정보를 입력받는 단계; 및 텍스트 및 음성신호 중의 적어도 하나와 추출된 감성 연출정보를 목적지 단말기로 전송하는 단계를 포함하는 것을 특징으로 한다.The intelligent emotional expression method of the device capable of emotional expression to achieve the above-mentioned object is classified as an item containing emotional class, similarity, positive or negative, emotional intensity, and stored as an emotional word dictionary. Storing emotional presentation information corresponding to each emotional class classified in the emotional word dictionary using at least one of an avatar, an emoticon, a flash image, a video, an image, and an audio signal; Inferring the emotion matching the emotional word dictionary from at least one of the received text and voice signal; Extracting emotion directing information corresponding to the emotion from the stored emotion directing information; Receiving information about a destination terminal; And transmitting at least one of the text and the voice signal and the extracted emotion directing information to the destination terminal.
바람직하게는, 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환하는 단계; 변환된 단어 및 구문 중 상기 감성 단어사전에 매칭되는 단어 또는 구문을 확인하는 단계; 및 변환된 단어 및 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델(Probabilistic model)을 적용하는 단계를 더 포함할 수 있다. 이 경우, 감성 추론단계는 적용된 상기 확률 모델에 따라 감성을 추론할 수 있다.Preferably, the step of identifying the words and phrases for the text to the basic form; Identifying a word or phrase that matches the emotional word dictionary among the converted words and phrases; And applying a probabilistic model based on the co-occurrence of the converted word and phrase. In this case, the emotion inference step may infer emotion according to the applied probability model.
또한, 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여, 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나에 대응하는 감성을 저장하는 단계; 및 음성신호로부터 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출하는 단계를 더 포함할 수도 있다. 이 경우, 감성 추론단계는 검출된 음원에 기초하여 저장된 감성으로부터 매칭되는 감성을 추론할 수 있다.The method may further include storing emotions corresponding to at least one of a color, an image, a font, an emoticon, an avatar, a video, a voice, a tone, a sound quality, and a sound wave, corresponding to each emotion class classified in the emotion word dictionary; And detecting a sound source including at least one of a tone, sound quality, and sound wave from the voice signal. In this case, the emotion inference step may infer a matched emotion from the stored emotion based on the detected sound source.
본 발명의 실시예에 따르면, 확률모델 방법을 이용하여 사용자의 감성상태를 추론하고 추론된 결과에 따라 적응적으로 감성을 표출할 수 있도록 하는 지능형 감성 추론모듈을 이용함으로써, 네트워크로 연결된 타인 단말기에 지능적으로 감성연출을 할 수 있게 된다.According to an embodiment of the present invention, by using an intelligent emotional reasoning module that infers the emotional state of the user by using a probability model method and adaptively expresses emotion according to the inferred result, Emotional expression can be made intelligently.
도 1은 본 발명의 실시예에 따른 감성연출 서비스 제공 시스템을 개략적으로 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 감성 단어사전의 예를 나타낸 도면이다.
도 3은 도 1의 감성 추론서버의 구성의 예를 나타낸 도면이다.
도 4는 도 3의 감성로그 저장부에 의한 감성 로그정보의 예를 나타낸 도면이다.
도 5는 도 1의 감성 추론서버의 구성의 다른 예를 나타낸 도면이다.
도 6은 본 발명의 실시예에 따른 감성연출이 가능한 장치의 구성 예를 나타낸 도면이다.
도 7은 도 1의 감성연출 서비스 제공 시스템에 의한 감성연출 서비스 제공방법을 나타낸 흐름도이다.
도 8은 도 6의 감성연출이 가능한 장치에 의한 감성연출 방법을 나타낸 흐름도이다.1 is a diagram schematically showing a system for providing emotional service according to an embodiment of the present invention.
2 is a diagram illustrating an example of an emotional word dictionary according to an embodiment of the present invention.
3 is a diagram illustrating an example of the configuration of the emotional reasoning server of FIG. 1.
4 is a diagram illustrating an example of emotional log information by the emotional log storage of FIG. 3.
5 is a diagram illustrating another example of the configuration of the emotional reasoning server of FIG. 1.
6 is a view showing an example of the configuration of the apparatus capable of emotional expression according to an embodiment of the present invention.
FIG. 7 is a flowchart illustrating a method for providing emotional service by the emotional service providing system of FIG. 1.
8 is a flowchart illustrating a method of emotional expression by the apparatus capable of emotional expression of FIG. 6.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same reference numerals are assigned to the same components as much as possible even though they are shown in different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the component of this invention, terms, such as 1st, 2nd, A, B, (a), (b), can be used. These terms are only for distinguishing the components from other components, and the nature, order or order of the components are not limited by the terms. If a component is described as being "connected", "coupled" or "connected" to another component, that component may be directly connected or connected to that other component, but between components It will be understood that may be "connected", "coupled" or "connected".
도 1은 본 발명의 실시예에 따른 감성연출 서비스 제공 시스템을 개략적으로 도시한 도면이다. 도 1을 참조하면, 감성연출 서비스 제공 시스템(100)은 네트워크(150)를 통하여 유선통신 단말기(160) 또는 무선통신 단말기(170)와 연결될 수 있다. 또한, 감성연출 서비스 제공 시스템(100)은 단어사전 저장서버(110), 연출정보 저장서버(120), 감성 추론서버(130), 연출정보 추출서버(140) 및 감성 연출서버(145)를 포함할 수 있다. 여기서, 감성연출 서비스 제공 시스템(100)은 복수의 서버가 연결되어 구성된 것으로 설명하였지만, 여러 개의 구성요소의 조합으로 이루어진 하나의 장치로 구현될 수도 있다.1 is a diagram schematically showing a system for providing emotional service according to an embodiment of the present invention. Referring to FIG. 1, the emotion rendering
단어사전 저장서버(110)는 감성 단어에 대하여 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나를 포함하는 항목으로 분류하여 감성 단어사전으로 저장한다. 감성은 자극이나 자극의 변화를 느끼는 성질로서, 놀람, 공포, 혐오, 노여움, 기쁨, 행복, 슬픔 등과 같은 심리적인 요인에 의해 좌우된다. 그런데, 동일한 자극에 대해서도 개인마다 느끼는 감성이 다를 수 있으며, 감성의 강도 또한 다를 수 있다. 이와 같은 성질을 감안하여 단어사전 저장서버(110)는 행복하다, 창피하다, 허탈하다 등과 같은 감성단어에 대하여 각각의 감성 클래스를 분류하며, 분류된 감성 클래스에 대한 유사성, 긍정 또는 부정도, 감성 강도 등을 분류하여 감성 단어사전으로 저장한다. 여기서, 감성 클래스는 만족, 그리움, 행복 등과 같은 인간의 내적 감정상태들을 분류한 것으로서 본 발명의 실시예에서는 전체 77개의 감성 클래스로 분류하고 그 중, 해당 단어가 속하는 감성 클래스를 매칭시킬 수 있다. 여기서, 감성 클래스의 개수는 분류 가능한 감성의 종류의 예시일 뿐이며, 이에 한정되는 것은 아니다. 유사성은 해당 단어와 감성 클래스 내의 항목 간의 유사도를 나타내는 것으로서 일정한 범위 내의 수치로 표현할 수 있다. 긍정 또는 부정도는 해당 단어의 속성이 긍정적인 감성인지 또는 부정적인 감성인지를 나타내는 정도로서 0을 기준으로 일정한 범위 내의 음의 수 또는 양의 수로 표현할 수 있다. 감성 강도는 해당 단어의 속성 중 감성에 대한 세기를 나타내며, 일정한 범위 내의 수치로 표현할 수 있다. 도 2는 본 발명의 실시예에 따른 감성 단어사전의 예를 나타낸 도면으로서, 여기서는 유사성은 0 내지 10의 범위 내의 수치로 표현하였으며, 긍정 또는 부정도는 0, 1 또는 -1로 표현하였고, 감성 강도는 0 내지 10의 수치로 표현하였다. 그러나, 이와 같은 수치는 도시한 범위에 한정되는 것이 아니며 다양한 변형이 가능하다. 예를 들어, 긍정 또는 부정도는 -1 내지 1의 범위 내에서 0.1 단위의 수치로 표현될 수 있으며, 유사성이나 감성 강도 또한 0 내지 1의 범위 내에서 0.1 단위의 수치로 표현될 수도 있다. 또한, 도 2의 간지럽다, 따뜻하다, 뭉클하다 등과 같이 감성단어 저장부(102)는 동일한 감성 단어에 대하여 복수의 감성 클래스를 분류할 수 있으며, 이 경우 분류된 각각의 감성 클래스에 대하여 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나를 분류하여 감성 단어사전으로 저장할 수 있다. 또한, 동일한 감성단어라고 하더라도 사용자별로 로그되는 문장의 입력시간, 장소, 날씨 중 적어도 하나를 포함하는 환경정보에 따라 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도가 달라지거나, 사용자별 성별, 나이, 성격, 직업을 포함하는 프로파일 정보에 따라 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도가 달라질 수 있는데, 사용자별 환경정보 및 프로파일 정보를 고려하여 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나가 다르게 추론되는 경우에는 사용자별 감성 로그정보에 기초하여 사용자별 감성 단어사전을 설정하여 저장할 수도 있다.The word
연출정보 저장서버(120)는 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 중의 적어도 하나를 이용하여 감성 단어사전에 분류된 각각의 감성 클래스에 대응하는 감성 연출정보를 저장한다. 즉, 연출정보 저장서버(120)는 감성 단어사전에 분류된 전체 77개의 각각의 감성 클래스에 대응하여 감성 연출정보를 저장할 수 있으며, 감성 연출정보는 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 등으로 표현될 수 있다. 여기서, 아바타는 온라인상의 가상사회에서 자신의 분신을 의미하는 시각적 이미지를 말한다. 이모티콘(emoticon)은 감정을 뜻하는 이모션(emotion)과 아이콘(icon)의 합성어로서 한글로는 '그림말'이라고도 하며, 온라인상의 가상공간에서 컴퓨터 자판의 문자, 기호, 숫자 등을 조합하여 감정이나 의사를 나타내는 표현을 말한다. 플래시 영상은 플래시(flash) 소프트웨어를 이용하여 제작된 애니메이션을 말한다. 동영상은 사용자가 직접 자신의 감성을 표현하기 위하여 촬영한 영상을 말한다. 이미지는 사진적인 처리 과정에 의해 스크린 상에 나타나는 장면의 시각적인 재현으로서, 일정한 화면 사이즈와 카메라 앵글로 구성된 낱장의 그림을 말한다. 음향신호는 소리로 알리는 신호로서, 개, 고양이, 사자 등의 동물소리나, 배, 기차, 자동차, 악기 등의 사물소리, 또는 시냇물, 파도, 물방울 등의 자연계 소리나, 웃음, 울음, 성난 소리 등의 사람의 소리 등을 포함한다. 여기서, 연출정보 저장서버(120)는 감성연출 서비스 제공업자에 의해 마련된 감성 연출정보뿐만 아니라, 사용자에 의해 등록된 감성 연출정보를 사용자별로 구별하여 저장할 수도 있다. 즉, 사용자는 자신이 선택한 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 등을 대응되는 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중의 적어도 하나와 함께 매칭시켜 저장할 수 있다. 또한, 동영상의 경우에도 3D 영상 등을 활용하여 자신만의 독특한 감성 연출정보를 편집하여 저장시킬 수 있다. 이에 따라 감성연출 서비스 제공 시스템(100)은 사용자의 선택 또는 편집에 따라 사용자 개개인에 대응하는 독특한 감성 연출의 제공이 가능하게 된다. 이때, 연출정보 저장서버(120)는 사용자 별로 저장된 연출정보를 사용자 상호간에 교환, 배포하거나 공유할 수 있도록 구현될 수 있다.The directed
감성 추론서버(130)는 네트워크(150)를 통해 연결된 사용자 단말기(160, 170)로부터 수신되는 텍스트 및 음성신호 중의 적어도 하나에 대하여 감성 단어사전에 매칭되는 감성을 추론한다. 이와 같은 감성 추론서버(130)는 도 3에 도시한 바와 같은 감성 추론장치(300)로 구현될 수도 있다. The
도 3은 도 1의 감성 추론서버(130)의 구성을 개략적으로 도시한 도면이다. 이하에서는 감성 추론장치(300)가 감성연출 서비스 제공 시스템(100)의 감성 추론서버(130)로 사용된 경우를 가정하여 설명한다. 도 3을 참조하면, 감성 추론서버(300)는 문장 변환부(310), 매칭 확인부(320), 감성 추론부(330), 감성로그 저장부(340) 및 로그정보 검색부(350)를 포함할 수 있다. 3 is a diagram schematically showing the configuration of the
문장 변환부(310)는 네트워크(150)를 통해 연결된 사용자 단말기(160, 170)로부터 수신되는 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환한다. 즉, 문장 변환부(310)는 사용자 단말기(160, 170)로부터 수신되는 텍스트에 대하여 1차적으로 복수의 단어로 분절한 후 기본형으로 변환할 수 있으며, 분절된 단어들 중 관용적으로 사용되는 단어와 단어의 조합을 통해 구문을 파악한 후 기본형으로 변환할 수 있다.The
매칭 확인부(320)는 문장 변환부(310)에 의해 변환된 각각의 단어 및 구문을 단어사전 저장서버(110)에 저장된 감성 단어사전과 비교하여 매칭되는 단어 또는 구문을 확인한다.The
감성 추론부(330)는 변환된 단어 및 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델(Probabilistic model)을 적용하며, 적용된 확률 모델에 따라 감성을 추론할 수 있다. 예를 들어, 문장 변환부(310)에 의해 기본형으로 변환된 단어 중 '벅차다'라는 단어가 감성 단어사전의 '감동'의 감성 클래스와 매칭된다고 가정하면, 감성 추론부(330)는 '벅차다'라는 단어와 기본형으로 변환된 다른 단어 또는 구문의 조합에 기초하여 확률 모델을 적용하고, 적용된 확률 모델에 따라 감성을 추론할 수 있다. 여기서, 확률 모델은 전체 코퍼스(corpus)에서 특정 단어 또는 구문의 빈도수를 이용하여 특정 감성에 속할 확률을 계산하는 알고리즘으로서, 이를 바탕으로 새로운 단어가 특정 감성에 속할 확률을 계산할 수 있다. 예를 들어, 수학식 1에 나타낸 바와 같이 코퍼스 내에서 새로운 단어 W의 전체 빈도수에 대한 코퍼스 내의 문장에서 새로운 단어 W와 특정 감성 C가 조합으로 사용된 빈도수를 계산하여 새로운 단어에 대한 감성 유사도를 유추할 수 있다.The
또한, 단어 유사도(Co-occurrence similarity)를 구하기 위하여 PMI(Pointwise Mutual Information)를 이용할 수 있다. 이때, PMI는 수학식 2와 같이 계산될 수 있다.In addition, PMI (Pointwise Mutual Information) may be used to obtain Co-occurrence similarity. In this case, PMI may be calculated as in
PMI와 유사한 식으로 Dice 계수 Dice(W,C)를 이용할 수도 있다.Dice coefficients Dice (W, C) may be used in a manner similar to PMI.
감성 유사도를 유추하는 계산식은 제시된 식에 한정되는 것은 아니며, 다양한 변형이 가능하다.The formula for inferring emotional similarity is not limited to the presented equation, and various modifications are possible.
감성 추론부(330)는 이와 같은 방식으로 < 단어 + 단어 >, < 단어 + 구문 > 및 < 구문 + 구문 >에 대한 감성을 추론한 후, 추론한 각각의 감성을 조합하여 문장 전체에 대한 감성을 추론할 수도 있다.The
감성로그 저장부(340)는 매칭 확인부(320)에 의해 확인된 단어 또는 구문에 기초하여 단어 및 단어, 단어 및 구문, 구문 및 구문을 포함하는 형태의 감성 로그를 저장할 수 있다. 즉, 감성로그 저장부(340)는 새로운 단어에 대한 감성 유추를 위해 사용자에 의해 로그되는 문장들을 의미있는 단어 및 단어, 단어 및 구문, 구문 및 구문의 조합으로 저장할 수 있다. 예를 들어, 감성로그 저장부(110)는 매칭 확인부(320)에 의해 "사랑함"이라는 감성을 가지는 것으로 확인된 "사랑하다"라는 기본형의 단어를, 문장 내의 감성이 없는 단어인 "완소" 및 "친구"와 각각 결합하여 <완소-사랑하다>, <친구-사랑하다>의 2개의 감성 로그를 생성하여 저장할 수 있다. 이때, 감성 로그는 도 4에 도시한 바와 같이, 시간정보를 함께 저장할 수 있다. 이때, 감성 로그정보와 함께 저장되는 정보는 시간정보에 한정되지 않으며, 날씨 정보, 사용자의 위치정보 등이 함께 저장될 수도 있다.The emotional
로그정보 검색부(350)는 감성로그 저장부(340)에 저장된 로그정보에 대하여 설정된 값 이상이 되는 로그정보가 있는지 여부를 검색할 수 있다. 즉, 로그정보 검색부(350)는 감성로그 저장부(340)에 저장된 로그정보들의 횟수가 설정된 값 이상이 되었는지를 검색한다. 이때, 감성 추론부(330)는 로그정보 검색부(350)를 통해 특정 단어 또는 구문이 감성로그 저장부(340)에 설정된 횟수 이상으로 저장된 경우에만 해당 단어 또는 구문과 조합된 구문 또는 문장에 대해서 감성을 추론하도록 구현될 수 있다.The log
도 5는 도 1의 감성 추론서버(130)의 다른 구성 예를 나타낸 도면이다. 이와 같은 감성 추론서버(130)는 도 5에 도시한 바와 같은 감성 추론장치(300)로 구현될 수도 있다. 이하에서는 감성 추론장치(300)가 인스턴트 메신저 서비스 제공 시스템(100)의 감성 추론서버(130)로 사용된 경우를 가정하여 설명한다. 5 is a diagram illustrating another configuration example of the
감성 추론서버(500)는 감성 저장부(510), 음원 검출부(520) 및 감성 추론부(530)를 포함할 수 있다. The
감성 저장부(510)는 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나로 표현되는 감성을 저장한다. 즉, 감성 저장부(510)는 감성 단어사전에 분류된 전체를 약 77개의 각각의 감성 클래스에 대응하여 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질 또는 음파를 매칭시켜 표현할 수 있으며, 각각의 감성 클래스에 매칭된 음색, 음질 또는 음파에 대응하는 감성을 함께 저장한다. The
여기서, 음색은 음의 성분 차이에서 나타나는 감각적 특성을 말한다. 같은 높이의 음을 같은 크기로 올려도 발음체의 차이나 진동방법에 따라 음이 지니는 감각적인 성질에 차이가 생기며, 이것은 진동에 의해 어떤 부분음이 어느 정도의 강도로 발생하는가에 따라 결정된다. 예컨대, 음의 높이는 같아도 피아노와 바이올린의 음색이 전혀 다른 느낌을 주는 것은 바로 이와 같은 이유 때문이다. Here, the tone refers to the sensory characteristic that appears in the difference of the components of the sound. Even if the sound of the same height is raised to the same size, there is a difference in the sensory properties of the sound depending on the difference in the pronunciation and the vibration method, which is determined by what intensity of the partial sound is generated by the vibration. For example, it is for this reason that the sounds of the piano and violin are completely different even though the pitch is the same.
또한, 음질은 음의 날카로움 또는 부드러움의 정도를 의미하며, 톤(tone)이라고도 한다. 또한, 음파란 물체의 진동이 균일하던 매질(공기)에 부분적으로 압력 변화를 일으켜서 종파의 형태로 고막을 진동시키는 것으로서, 줄이나 물체의 진동이 임의의 방향으로 운동하고 있는 공기 입자들을 교란시키면 부분적으로 압력이 높은 곳과 낮은 곳이 나타나게 되며, 그때 압력 차에 의해 공기 입자들이 압력이 높은 곳에서 압력이 낮은 곳으로 이동하게 되어 음파는 퍼져 나가게 되고, 공기의 압력 변화가 사람들의 귀에 도달하면 고막을 진동시키게 된다.In addition, the sound quality means the degree of sharpness or softness of the sound, also called tone. In addition, sound waves vibrate the eardrum in the form of a longitudinal wave by partially changing the pressure in the medium (air) where the vibration of the object was uniform, and when the vibration of the string or the object moves in an arbitrary direction, it partially The high and low pressures appear at that time, and the pressure difference causes the air particles to move from the high pressure to the low pressure, so that the sound waves spread out, and when the air pressure changes reach people's ears, the eardrum Will vibrate.
음원 검출부(520)는 네트워크(150)를 통해 연결된 사용자 단말기(160, 170)로부터 수신되는 음성신호에 대하여 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출한다. 이때, 음원 검출부(520)는 감성 저장부(510)에 저장된 음원과 동일한 음원을 검출하는 것이 바람직하다. 즉, 감성 저장부(510)에 음색이 저장된 경우, 음원 검출부(520)는 사용자 단말기(160)로부터 수신되는 음성신호에 대하여 음색을 검출하는 것이 바람직하다.The
감성 추론부(530)는 음원 검출부(520)에 의해 검출된 음원에 기초하여 감성 저장부(510)로부터 매칭되는 감성을 추론한다. 즉, 감성 추론부(530)는 음원 검출부(520)에 의해 검출된 음색, 음질 또는 음파와, 감성 저장부(510)에 저장된 음색, 음원 또는 음파를 비교하여 대응하는 감성을 추론한다.The
도 1의 연출정보 추출서버(140)는 연출정보 저장서버(120)로부터 감성 추론서버(130)에 의해 추론된 감성에 대응하는 감성 연출정보를 추출한다. The directed
감성 연출서버(145)는 사용자 단말기(160)로부터 목적지 단말기(170)에 대한 정보를 수신하며, 사용자 단말기(160)로부터 수신되는 텍스트 및/또는 음성신호와 추출된 감성 연출정보를 목적지 단말기(170)로 전송한다. 여기서, 목적지 단말기(170)에 대한 정보는 목적지 단말기의 전화번호, 목적지 단말기 사용자의 성명 등을 포함할 수 있다. 여기서, 유선 단말기(160)가 사용자 단말기이며, 무선 단말기(170)가 목적지 단말기인 것으로 가정하였다. 그러나, 이에 한정되는 것은 아니며, 그 반대의 경우이거나 서로 동종의 단말기로 구현될 수도 있다. 이하, 마찬가지이다.The
이때, 감성 연출서버(145)는 감성 연출정보를 푸시업(Push Up) 방식으로 강제적으로 목적지 단말기(170)로 전송할 수 있다. 또한, 감성 연출서버(145)는 사용자가 텍스트 또는 음성신호가 전송된 후 일정한 시간 뒤에 감성 연출이 제공되길 원하거나, 기타 다른 부가정보가 함께 전송되길 원하는 경우에는, 사용자로부터 그에 대한 전송조건 정보를 수신하고, 그에 따라 감성 연출정보를 목적지 단말기(170)로 전송할 수도 있다. 이로써, 목적지 단말기(170)는 사용자 단말기(160)로부터 텍스트 및/또는 음성신호를 수신하면서, 그 화면에서 텍스트 및/또는 음성신호에 대한 감성 연출정보를 확인할 수 있게 된다.
In this case, the
도 6은 본 발명의 실시예에 따른 지능형 감성연출이 가능한 장치의 구성 예를 나타낸 도면이다. 6 is a view showing an example of the configuration of a device capable of intelligent emotional expression according to an embodiment of the present invention.
도 6을 참조하면, 감성연출이 가능한 장치(600)는 단어사전 저장부(610), 연출정보 저장부(620), 감성 추론부(630), 문장 변환부(640), 매칭 확인부(650), 감성 저장부(660), 음원 검출부(670), 연출정보 추출부(680) 및 감성 연출부(690)를 포함할 수 있다. Referring to FIG. 6, the
여기서, 감성연출이 가능한 장치(600)는 사용자의 키 조작에 따라 통신망()을 경유하여 각종 데이터를 송수신할 수 있는 각종 장치를 말하는 것이며, 바람직하게는 스마트 폰(Smart Phone)일 수 있으나 이에 한정되는 것은 아니다. 즉, 감성연출이 가능한 장치(600)는 태블릿 PC(Tablet PC), 랩톱(Laptop), 개인용 컴퓨터(PC: Personal Computer), 개인휴대용 정보단말기(PDA: Personal Digital Assistant) 및 이동통신 단말기(Mobile Communication Terminal) 등 중 어느 하나로 구현될 수 있을 뿐만 아니라, 스마트 TV와 같은 가전기기로 구현될 수도 있다. 한편, 이러한 감성연출이 가능한 장치(600)는 네트워크(150)를 통하여 데이터 읽고 쓰기 및 저장, 네트워크, 컨텐츠 사용 등의 서비스를 이용할 수 있는 클라우드 컴퓨팅(Cloud Computing)을 지원하는 클라우드 컴퓨팅 장치와 연동할 수 있다. 즉, 감성연출이 가능한 장치(600)는 네트워크(150)를 이용하여 음성 또는 데이터 통신을 수행하는 장치이며, 네트워크(150)를 경유하여 외부 장치와 통신하기 위한 프로그램 또는 프로토콜을 저장하기 위한 메모리, 해당 프로그램을 실행하여 연산 및 제어하기 위한 마이크로프로세서 등을 구비하고 있는 단말기를 의미한다. 즉, 감성연출이 가능한 장치(600)는 외부 장치와 서버-클라이언트 통신이 가능하다면 그 어떠한 장치라도 가능하며, 노트북 컴퓨터, 이동통신 단말기, PDA, 스마트 TV 등 여하한 통신 컴퓨팅 장치를 모두 포함하는 넓은 개념이다. Here, the
단어사전 저장부(610)는 감성 단어에 대하여 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나를 포함하는 항목으로 분류하여 감성 단어사전으로 저장한다. The
연출정보 저장부(620)는 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 중의 적어도 하나를 이용하여 감성 단어사전에 분류된 각각의 감성 클래스에 대응하는 감성 연출정보를 저장한다. 즉, 연출정보 저장부(620)는 감성 단어사전에 분류된 전체 77개의 각각의 감성 클래스에 대응하여 감성 연출정보를 저장할 수 있으며, 감성 연출정보는 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 등으로 표현될 수 있다. 여기서, 연출정보 저장부(620)는 감성연출이 가능한 장치(600)에 기 저장된 감성 연출정보뿐만 아니라, 사용자에 의해 생성 또는 편집된 감성 연출정보를 저장할 수도 있다. 즉, 사용자는 자신이 선택한 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 등을 대응되는 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중의 적어도 하나와 함께 매칭시켜 연출정보 저장부(620)에 저장할 수 있다. 또한, 동영상의 경우에도 3D 영상 등을 활용하여 자신만의 독특한 감성 연출정보를 편집하여 저장시킬 수 있다. 이에 따라 감성연출이 가능한 장치(600)는 사용자의 선택 또는 편집에 따라 사용자 개개인에 대응하는 독특한 감성 연출의 제공이 가능하게 된다.The direction
감성 추론부(630)는 네트워크(150)를 통해 연결된 사용자 단말기(160)로부터 수신되는 텍스트 및 음성신호 중의 적어도 하나에 대하여 감성 단어사전에 매칭되는 감성을 추론한다. The
이때, 문장 변환부(640)는 네트워크(150)를 통해 연결된 사용자 단말기(160)로부터 수신되는 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환할 수 있다. 또한, 매칭 확인부(650)는 문장 변환부(640)에 의해 변환된 단어 및 구문 중 감성 단어사전에 매칭되는 단어 또는 구문을 확인할 수 있다. 이 경우, 감성 추론부(630)는 문장 변환부(640)에 의해 변환된 단어 또는 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델을 적용하며, 적용된 확률 모델의 결과 값에 따라 감성을 추론할 수 있다.In this case, the
한편, 감성 저장부(660)는 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나로 표현되는 감성을 저장할 수 있다. 즉, 감성 저장부(510)는 감성 단어사전에 분류된 전체를 약 77개의 각각의 감성 클래스에 대응하여 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질 또는 음파를 매칭시켜 표현할 수 있으며, 각각의 감성 클래스에 매칭된 음색, 음질 또는 음파에 대응하는 감성을 함께 저장할 수 있다. 또한, 음원 검출부(670)는 네트워크(150)를 통해 연결된 사용자 단말기(160, 170)로부터 수신되는 음성신호에 대하여 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출한다. 이때, 음원 검출부(670)는 감성 저장부(660)에 저장된 음원과 동일한 음원을 검출하는 것이 바람직하다. 즉, 감성 저장부(510)에 음색이 저장된 경우, 음원 검출부(670)는 사용자 단말기(100)(이 경우, 감성연출이 가능한 장치(600)가 사용자 단말기의 역할을 한다)로부터 수신되는 음성신호에 대하여 음색을 검출하는 것이 바람직하다. 이 경우, 감성 추론부(630)는 음원 검출부(670)에 의해 검출된 음원에 기초하여 감성 저장부(660)로부터 매칭되는 감성을 추론할 수 있다. 즉, 감성 추론부(630)는 음원 검출부(670)에 의해 검출된 음색, 음질 또는 음파와, 감성 저장부(660)에 저장된 음색, 음원 또는 음파를 비교하여 대응하는 감성을 추론할 수 있다.Meanwhile, the
연출정보 추출부(680)는 감성 추론부(630)에 의해 추론된 감성에 대응하는 감성 연출정보를 연출정보 저장부(620)로부터 추출한다. The director
감성 연출부(690)는 사용자 단말기(160)로부터 목적지 단말기(170)에 대한 정보를 수신하며, 사용자 단말기(160)로부터 수신되는 텍스트 및/또는 음성신호와 추출된 감성 연출정보를 목적지 단말기(170)로 전송한다. 여기서, 목적지 단말기(170)에 대한 정보는 목적지 단말기의 전화번호, 목적지 단말기 사용자의 성명 등을 포함할 수 있다. 이때, 감성 연출부(690)는 감성 연출정보를 푸시업(Push Up) 방식으로 강제적으로 목적지 단말기(170)로 전송할 수 있다. 또한, 감성 연출부(690)는 사용자가 텍스트 또는 음성신호가 전송된 후 일정한 시간 뒤에 감성 연출이 제공되길 원하거나, 기타 다른 부가정보가 함께 전송되길 원하는 경우에는, 사용자로부터 그에 대한 전송조건 정보를 수신하고, 그에 따라 감성 연출정보를 목적지 단말기(170)로 전송할 수도 있다. 이로써, 목적지 단말기(170)는 사용자 단말기(160)로부터 텍스트 및/또는 음성신호를 수신하면서, 그 화면에서 텍스트 및/또는 음성신호에 대한 감성 연출정보를 확인할 수 있게 된다.
The
도 7은 도 1의 감성연출 서비스 제공 시스템에 의한 감성연출 서비스 제공방법을 나타낸 흐름도이다.FIG. 7 is a flowchart illustrating a method for providing emotional service by the emotional service providing system of FIG. 1.
도 1 및 도 7을 참조하면, 단어사전 저장서버(110)는 감성 단어에 대하여 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나를 포함하는 항목으로 분류하여 감성 단어사전으로 저장한다(S701).1 and 7, the word
또한, 연출정보 저장서버(120)는 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 중의 적어도 하나를 이용하여 감성 단어사전에 분류된 각각의 감성 클래스에 대응하는 감성 연출정보를 저장한다(S703). 즉, 연출정보 저장서버(120)는 감성 단어사전에 분류된 전체 77개의 각각의 감성 클래스에 대응하여 감성 연출정보를 저장할 수 있으며, 감성 연출정보는 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 등으로 표현될 수 있다. 도면에는 감성 단어사전 저장단계와 감성 연출정보 저장단계가 각각 별도의 단계로 구성된 것으로 도시하였지만, 감성 단어사전 저장단계 및 감성 연출정보 저장단계는 하나의 단계로 구현될 수도 있다.In addition, the direction
감성 추론서버(130)의 감성 저장부(510)는 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나에 대응하는 감성을 저장할 수 있다(S705). 즉, 감성 저장부(510)는 감성 단어사전에 분류된 전체 77개의 각각의 감성 클래스에 대응하여 음색, 음질 또는 음파를 매칭시킬 수 있으며, 각각의 감성 클래스에 매칭된 음색, 음질 또는 음파에 대응하는 감성을 함께 저장할 수 있다. The
네트워크(150)를 통해 연결된 사용자 단말기(160)로부터 수신되는 신호가 텍스트 신호인 경우(S707), 감성 추론서버(130)의 문장 변환부(310)는 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환할 수 있다(S709). 즉, 문장 변환부(310)는 사용자 단말기들(160)로부터 수신되는 텍스트에 대하여 1차적으로 복수의 단어로 분절한 후 기본형으로 변환할 수 있으며, 분절된 단어들 중 관용적으로 사용되는 단어와 단어의 조합을 통해 구문을 파악한 후 기본형으로 변환할 수 있다.When the signal received from the
또한, 매칭 확인부(320)는 문장 변환부(310)에 의해 변환된 각각의 단어 및 구문을 단어사전 저장서버(110)에 저장된 감성 단어사전과 비교하여 매칭되는 단어 또는 구문을 확인할 수 있다(S711).In addition, the
감성 추론부(330)는 변환된 단어 및 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델(Probabilistic model)을 적용하며, 적용된 확률 모델에 따라 감성을 추론할 수 있다(S713). 예를 들어, 문장 변환부(310)에 의해 기본형으로 변환된 단어 중 '벅차다'라는 단어가 감성 단어사전의 '감동'의 감성 클래스와 매칭된다고 가정하면, 감성 추론부(330)는 '벅차다'라는 단어와 기본형으로 변환된 다른 단어 또는 구문의 조합에 기초하여 확률 모델을 적용하고, 적용된 확률 모델에 따라 감성을 추론할 수 있다. The
네트워크(150)를 통해 연결된 사용자 단말기(160)로부터 수신되는 신호가 음성 신호인 경우(S715), 음원 검출부(520)는 네트워크(150)를 통해 연결된 사용자 단말기(160)로부터 수신되는 음성신호로부터 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출할 수 있다(S717). 이때, 음원 검출부(520)는 감성 저장부(510)에 저장된 음원과 동일한 음원을 검출하는 것이 바람직하다. 즉, 감성 저장부(510)에 음색이 저장된 경우, 음원 검출부(520)는 사용자 단말기들(160)로부터 수신되는 음성신호로부터 음색을 검출하는 것이 바람직하다.When the signal received from the
감성 추론부(530)는 음원 검출부(520)에 의해 검출된 음원에 기초하여 감성 저장부(510)로부터 매칭되는 감성을 추론할 수 있다(S719). 즉, 감성 추론부(530)는 음원 검출부(520)에 의해 검출된 음색, 음질 또는 음파와, 감성 저장부(510)에 저장된 음색, 음원 또는 음파를 비교하여 대응하는 감성을 추론할 수 있다.The
연출정보 추출서버(140)는 연출정보 저장서버(120)로부터 감성 추론서버(130)에 의해 추론된 감성에 대응하는 감성 연출정보를 추출한다(S721). The directed
감성 연출서버(145)는 사용자 단말기(160)로부터 목적지 단말기(170)에 대한 정보를 수신하며(S723), 사용자 단말기(160)로부터 수신되는 텍스트 및/또는 음성신호와 추출된 감성 연출정보를 목적지 단말기(170)로 전송한다(S725). The
이때, 감성 연출서버(145)는 감성 연출정보를 푸시업(Push Up) 방식으로 강제적으로 목적지 단말기(170)로 전송할 수 있다. 이로써, 목적지 단말기(170)는 사용자 단말기(160)로부터 텍스트 및/또는 음성신호를 수신하면서, 그 화면에서 텍스트 및/또는 음성신호에 대한 감성 연출정보를 확인할 수 있게 된다.
In this case, the
도 8은 도 6의 감성연출이 가능한 장치에 의한 지능형 감성연출 방법을 나타낸 흐름도이다. 도 6 및 도 8을 참조하면, 단어사전 저장부(610)는 감성 단어에 대하여 감성 클래스, 유사성, 긍정 또는 부정도, 감성 강도 중 적어도 하나를 포함하는 항목으로 분류하여 감성 단어사전으로 저장한다(S801).8 is a flowchart illustrating an intelligent emotional expression method by the apparatus capable of emotional expression of FIG. 6. Referring to FIGS. 6 and 8, the word
또한, 연출정보 저장부(620)는 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 중의 적어도 하나를 이용하여 감성 단어사전에 분류된 각각의 감성 클래스에 대응하는 감성 연출정보를 저장한다(S803). 즉, 연출정보 저장부(620)는 감성 단어사전에 분류된 전체 77개의 각각의 감성 클래스에 대응하여 감성 연출정보를 저장할 수 있으며, 감성 연출정보는 아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 등으로 표현될 수 있다. 도면에는 감성 단어사전 저장단계와 감성 연출정보 저장단계가 각각 별도의 단계로 구성된 것으로 도시하였지만, 감성 단어사전 저장단계 및 감성 연출정보 저장단계는 하나의 단계로 구현될 수도 있다.In addition, the direction
감성 저장부(660)는 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나에 대응하는 감성을 저장할 수 있다(S805). 즉, 감성 저장부(660)는 감성 단어사전에 분류된 전체 77개의 각각의 감성 클래스에 대응하여 음색, 음질 또는 음파를 매칭시킬 수 있으며, 각각의 감성 클래스에 매칭된 음색, 음질 또는 음파에 대응하는 감성을 함께 저장할 수 있다. The
감성연출이 가능한 장치(600)로부터 수신되는 신호가 텍스트 신호인 경우(S807), 문장 변환부(640)는 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환할 수 있다(S809). 즉, 문장 변환부(640)는 감성연출이 가능한 장치(600)로부터 수신되는 텍스트에 대하여 1차적으로 복수의 단어로 분절한 후 기본형으로 변환할 수 있으며, 분절된 단어들 중 관용적으로 사용되는 단어와 단어의 조합을 통해 구문을 파악한 후 기본형으로 변환할 수 있다. 매칭 확인부(650)는 변환된 각각의 단어 및 구문을 단어사전 저장부(610)에 저장된 감성 단어사전과 비교하여 매칭되는 단어 또는 구문을 확인할 수 있다(S811). 이때, 감성 추론부(630)는 변환된 단어 및 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델(Probabilistic model)을 적용하며, 적용된 확률 모델에 따라 감성을 추론할 수 있다(S813). 예를 들어, 문장 변환부(310)에 의해 기본형으로 변환된 단어 중 '벅차다'라는 단어가 감성 단어사전의 '감동'의 감성 클래스와 매칭된다고 가정하면, 감성 추론부(330)는 '벅차다'라는 단어와 기본형으로 변환된 다른 단어 또는 구문의 조합에 기초하여 확률 모델을 적용하고, 적용된 확률 모델에 따라 감성을 추론할 수 있다. When the signal received from the
감성연출이 가능한 장치(600)의 사용자로부터 수신되는 신호가 음성 신호인 경우(S815), 음원 검출부(670)는 사용자로부터 수신되는 음성신호에 대하여 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출할 수 있다(S817). 이때, 음원 검출부부(670)는 저장된 음원과 동일한 음원을 검출하는 것이 바람직하다. 즉, 음색이 저장된 경우, 음원 검출부(670)는 감성연출이 가능한 장치(600)로부터 수신되는 음성신호에 대하여 음색을 검출하는 것이 바람직하다. 이때, 감성 추론부(630)는 검출된 음원에 기초하여 매칭되는 감성을 추론할 수 있다(S819). 즉, 연출정보 추출부(630)는 검출된 음색, 음질 또는 음파와, 저장된 음색, 음원 또는 음파를 비교하여 대응하는 감성을 추론할 수 있다.When the signal received from the user of the
연출정보 추출부(680)는 감성 추론부(630)에 의해 추론된 감성에 대응하는 감성 연출정보를 연출정보 저장부(620)로부터 추출한다(S821). The director
감성 연출부(690)는 감성연출이 가능한 장치(600)의 사용자로부터 목적지 단말기(170)에 대한 정보를 수신하며(S823), 사용자로부터 수신되는 텍스트 및/또는 음성신호와 추출된 감성 연출정보를 목적지 단말기(170)로 전송한다(S825). 여기서, 목적지 단말기(170)에 대한 정보는 목적지 단말기의 전화번호, 목적지 단말기 사용자의 성명 등을 포함할 수 있다. 이때, 감성 연출부(690)는 감성 연출정보를 푸시업(Push Up) 방식으로 강제적으로 목적지 단말기(170)로 전송할 수 있다. 이로써, 목적지 단말기(170)는 사용자 단말기(160)로부터 텍스트 및/또는 음성신호를 수신하면서, 그 화면에서 텍스트 및/또는 음성신호에 대한 감성 연출정보를 확인할 수 있게 된다.
The
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. In other words, within the scope of the present invention, all of the components may be selectively operated in combination with one or more. In addition, although all of the components may be implemented in one independent hardware, each or all of the components may be selectively combined to perform some or all functions combined in one or a plurality of hardware. It may be implemented as a computer program having a. Codes and code segments constituting the computer program may be easily inferred by those skilled in the art. Such a computer program may be stored in a computer readable storage medium and read and executed by a computer, thereby implementing embodiments of the present invention. The storage medium of the computer program may include a magnetic recording medium, an optical recording medium, a carrier wave medium, and the like.
또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, the terms "comprise", "comprise" or "having" described above mean that the corresponding component may be inherent unless specifically stated otherwise, and thus excludes other components. It should be construed that it may further include other components instead. All terms, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art unless otherwise defined. Terms used generally, such as terms defined in a dictionary, should be interpreted to coincide with the contextual meaning of the related art, and shall not be interpreted in an ideal or excessively formal sense unless explicitly defined in the present invention.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
The above description is merely illustrative of the technical idea of the present invention, and those skilled in the art to which the present invention pertains may make various modifications and changes without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas falling within the scope of the same shall be construed as falling within the scope of the present invention.
100: 감성연출 서비스 제공 시스템
110: 단어사전 저장서버 120: 연출정보 저장서버
130: 감성 추론서버 140: 연출정보 추출서버
150: 감성 연출서버100: emotional directing service providing system
110: word dictionary storage server 120: directing information storage server
130: emotional reasoning server 140: directed information extraction server
150: emotional production server
Claims (12)
아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 중의 적어도 하나를 이용하여 상기 감성 단어사전에 분류된 각각의 감성 클래스에 대응하는 감성연출정보를 저장하는 연출정보 저장서버;
네트워크를 통해 연결된 사용자 단말기로부터 수신되는 텍스트 및 음성신호 중의 적어도 하나에 대하여 상기 감성 단어사전에 매칭되는 감성을 추론하는 감성 추론서버;
상기 연출정보 저장서버로부터 상기 감성에 대응하는 감성 연출정보를 추출하는 연출정보 추출서버; 및
상기 사용자 단말기로부터 목적지 단말기에 대한 정보를 수신하며, 상기 사용자 단말기로부터 수신되는 상기 텍스트 및 음성신호 중의 적어도 하나와 추출된 상기 감성 연출정보를 상기 목적지 단말기로 전송하는 감성 연출서버
를 포함하는 것을 특징으로 하는 감성연출 서비스 제공 시스템.
A word dictionary storage server for classifying an emotional word into an item including at least one of an emotional class, similarity, positive or negative, and emotional strength, and storing the emotional word as an emotional word dictionary;
A presentation information storage server for storing emotional presentation information corresponding to each emotional class classified in the emotional word dictionary using at least one of an avatar, an emoticon, a flash image, a moving picture, an image, and an audio signal;
An emotional reasoning server for inferring an emotion matching the emotional word dictionary with respect to at least one of a text and an audio signal received from a user terminal connected through a network;
A production information extraction server for extracting emotion production information corresponding to the emotion from the production information storage server; And
Emotion directing server for receiving information on the destination terminal from the user terminal, and transmits at least one of the text and voice signal received from the user terminal and the extracted emotional direction information to the destination terminal.
Emotional expression service providing system comprising a.
상기 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환하는 문장 변환부;
상기 변환된 단어 및 구문 중 상기 감성 단어사전에 매칭되는 단어 또는 구문을 확인하는 매칭 확인부; 및
상기 변환된 단어 및 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델(Probabilistic model)을 적용하며, 적용된 상기 확률 모델에 따라 감성을 추론하는 감성 추론부
를 포함하는 것을 특징으로 하는 감성연출 서비스 제공 시스템.
The method of claim 1, wherein the emotional reasoning server,
A sentence converter for grasping words and phrases from the text and converting them into basic forms;
A matching checker for checking a word or phrase that matches the emotional word dictionary among the converted words and phrases; And
Emotion reasoning unit applying a probabilistic model based on the co-occurrence of the converted word and phrase, and inferring emotion according to the applied probability model
Emotional expression service providing system comprising a.
상기 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여, 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나로 표현되는 감성을 저장하는 감성 저장부;
상기 음성신호로부터 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출하는 음원 검출부; 및
검출된 상기 음원에 기초하여 상기 감성 저장부로부터 매칭되는 감성을 추론하는 감성 추론부
를 포함하는 것을 특징으로 하는 감성연출 서비스 제공 시스템.
The method of claim 1, wherein the emotional reasoning server,
An emotion storage unit for storing emotions represented by at least one of a color, an image, a font, an emoticon, an avatar, a video, a voice, a tone, a sound quality, and a sound wave corresponding to each emotion class classified in the emotion word dictionary;
A sound source detector for detecting a sound source including at least one of a tone, sound quality, and sound wave from the voice signal; And
Emotion inference unit that infers a matched emotion from the emotion storage unit based on the detected sound source
Emotional expression service providing system comprising a.
아바타, 이모티콘, 플래시 영상, 동영상, 이미지, 음향신호 중의 적어도 하나를 이용하여 상기 감성 단어사전에 분류된 각각의 감성 클래스에 대응하는 감성연출정보를 저장하는 연출정보 저장부;
수신되는 텍스트 및 음성신호 중의 적어도 하나로부터 상기 감성 단어사전에 매칭되는 감성을 추론하는 감성 추론부;
상기 연출정보 저장부로부터 상기 감성에 대응하는 감성 연출정보를 추출하는 연출정보 추출부; 및
목적지 단말기에 대한 정보를 수신하며, 수신되는 상기 텍스트 및 음성신호 중의 적어도 하나와 추출된 상기 감성 연출정보를 상기 목적지 단말기로 전송하는 감성 연출부
를 포함하는 것을 특징으로 하는 지능형 감성연출이 가능한 장치.
A word dictionary storage unit classifying an emotional word into an item including at least one of an emotion class, similarity, positive or negative, and emotional strength, and storing the emotional word as an emotional word dictionary;
A production information storage unit for storing emotional presentation information corresponding to each emotional class classified in the emotional word dictionary using at least one of an avatar, an emoticon, a flash image, a moving picture, an image, and an audio signal;
An emotional inference unit for inferring an emotion matching the emotional word dictionary from at least one of a received text and an audio signal;
Directing information extraction unit for extracting the emotional directing information corresponding to the emotion from the directing information storage unit; And
Emotion directing unit for receiving information on the destination terminal, and transmits at least one of the received text and voice signal and the extracted emotion directing information to the destination terminal
Apparatus capable of intelligent emotional expression comprising a.
상기 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환하는 문장 변환부; 및
상기 변환된 단어 및 구문 중 상기 감성 단어사전에 매칭되는 단어 또는 구문을 확인하는 매칭 확인부
를 더 포함하며,
상기 감성 추론부는 상기 변환된 단어 및 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델(Probabilistic model)을 적용하며, 적용된 상기 확률 모델에 따라 감성을 추론하는 것을 특징으로 하는 지능형 감성연출이 가능한 장치.
The method of claim 4, wherein
A sentence converter for grasping words and phrases from the text and converting them into basic forms; And
Matching confirmation unit for confirming a word or phrase matching the emotional word dictionary of the converted words and phrases
More,
The emotional reasoning unit applies a probabilistic model based on the co-occurrence of the converted words and phrases, and induces emotional emotion according to the applied probability model. Device.
상기 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여, 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나로 표현되는 감성을 저장하는 감성 저장부; 및
상기 음성신호로부터 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출하는 음원 검출부
를 더 포함하며,
상기 감성 추론부는 검출된 상기 음원에 기초하여 상기 감성 저장부로부터 매칭되는 감성을 추론하는 것을 특징으로 하는 지능형 감성연출이 가능한 장치.
The method of claim 4, wherein
An emotion storage unit for storing emotions represented by at least one of a color, an image, a font, an emoticon, an avatar, a video, a voice, a tone, a sound quality, and a sound wave corresponding to each emotion class classified in the emotion word dictionary; And
A sound source detection unit for detecting a sound source including at least one of a tone, sound quality, sound waves from the voice signal
More,
And the emotional inference unit infers the emotions matched from the emotional storage unit based on the detected sound source.
네트워크를 통해 연결된 사용자 단말기로부터 수신되는 텍스트 및 음성신호 중의 적어도 하나에 대하여 상기 감성 단어사전에 매칭되는 감성을 추론하는 단계;
저장된 상기 감성 연출정보로부터 상기 감성에 대응하는 감성 연출정보를 추출하는 단계;
상기 사용자 단말기로부터 목적지 단말기에 대한 정보를 수신하는 단계; 및
상기 사용자 단말기로부터 수신되는 상기 텍스트 및 음성신호 중의 적어도 하나와 추출된 상기 감성 연출정보를 상기 목적지 단말기로 전송하는 단계
를 포함하는 것을 특징으로 하는 감성연출 서비스 제공방법.
The emotional word is classified into an item including at least one of emotional class, similarity, positive or negative, and emotional strength, and stored as an emotional word dictionary, and at least one of an avatar, an emoticon, a flash image, a video, an image, an audio signal Storing emotion directing information corresponding to each emotion class classified into the emotion word dictionary using the emotion word dictionary;
Inferring an emotion matching the emotional word dictionary with respect to at least one of a text and an audio signal received from a user terminal connected through a network;
Extracting emotion directing information corresponding to the emotion from the stored emotion directing information;
Receiving information on a destination terminal from the user terminal; And
Transmitting at least one of the text and voice signals received from the user terminal and the extracted emotion directing information to the destination terminal;
Emotional expression service providing method comprising a.
상기 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환하는 단계;
상기 변환된 단어 및 구문 중 상기 감성 단어사전에 매칭되는 단어 또는 구문을 확인하는 단계; 및
상기 변환된 단어 및 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델(Probabilistic model)을 적용하는 단계
를 포함하며,
적용된 상기 확률 모델에 따라 감성을 추론하는 것을 특징으로 하는 감성연출 서비스 제공방법.
The method of claim 7, wherein the emotional reasoning step,
Identifying a word and a phrase with respect to the text and converting the same into a basic form;
Identifying a word or phrase that matches the emotional word dictionary among the converted words and phrases; And
Applying a probabilistic model based on the co-occurrence of the converted words and phrases
Including;
Emotional expression service providing method comprising inferring the emotion according to the applied probability model.
상기 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여, 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나로 표현되는 감성을 저장하는 단계; 및
상기 음성신호로부터 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출하는 단계
를 포함하며,
검출된 상기 음원에 기초하여 상기 감성 저장부로부터 매칭되는 감성을 추론하는 것을 특징으로 하는 감성연출 서비스 제공방법.
The method of claim 7, wherein the emotional reasoning step,
Storing emotions represented by at least one of a color, an image, a font, an emoticon, an avatar, a video, a voice, a tone, a sound quality, and a sound wave, corresponding to each emotion class classified in the emotion word dictionary; And
Detecting a sound source including at least one of a tone, sound quality, and sound wave from the voice signal
Including;
Based on the detected sound source inferred emotion matching service from the emotional storage unit.
수신되는 텍스트 및 음성신호 중의 적어도 하나로부터 상기 감성 단어사전에 매칭되는 감성을 추론하는 단계;
저장된 상기 감성 연출정보로부터 상기 감성에 대응하는 감성 연출정보를 추출하는 단계;
목적지 단말기에 대한 정보를 입력받는 단계; 및
상기 텍스트 및 음성신호 중의 적어도 하나와 추출된 상기 감성 연출정보를 상기 목적지 단말기로 전송하는 단계
를 포함하는 것을 특징으로 하는 감성연출이 가능한 장치의 지능형 감성연출 방법.
The emotional word is classified into an item including at least one of emotional class, similarity, positive or negative, and emotional strength, and stored as an emotional word dictionary, and at least one of an avatar, an emoticon, a flash image, a video, an image, an audio signal Storing emotion rendering information corresponding to each emotion class classified by the emotion word dictionary using the emotion word dictionary;
Inferring an emotion matching the emotional word dictionary from at least one of the received text and voice signal;
Extracting emotion directing information corresponding to the emotion from the stored emotion directing information;
Receiving information about a destination terminal; And
Transmitting at least one of the text and voice signal and the extracted emotion directing information to the destination terminal;
Intelligent emotional expression method of the apparatus capable of emotional expression comprising a.
상기 텍스트에 대하여 단어와 구문을 파악하여 기본형으로 변환하는 단계;
상기 변환된 단어 및 구문 중 상기 감성 단어사전에 매칭되는 단어 또는 구문을 확인하는 단계; 및
상기 변환된 단어 및 구문의 상호 존재(Co-occurrence)에 기초하여 확률 모델(Probabilistic model)을 적용하는 단계
를 더 포함하며,
상기 감성 추론단계는 적용된 상기 확률 모델에 따라 감성을 추론하는 것을 특징으로 하는 감성연출이 가능한 장치의 지능형 감성연출 방법.
The method of claim 10,
Identifying a word and a phrase with respect to the text and converting the same into a basic form;
Identifying a word or phrase that matches the emotional word dictionary among the converted words and phrases; And
Applying a probabilistic model based on the co-occurrence of the converted words and phrases
More,
The emotional reasoning step is a method for intelligent emotional expression of the emotion-expressing device, characterized in that inferring emotion according to the applied probability model.
상기 감성 단어사전에 분류된 각각의 감성 클래스에 대응하여, 색상, 이미지, 폰트, 이모티콘, 아바타, 동영상, 음성, 음색, 음질, 음파 중 적어도 하나로 표현되는 감성을 저장하는 단계; 및
상기 음성신호로부터 음색, 음질, 음파 중 적어도 하나를 포함하는 음원을 검출하는 단계
를 더 포함하며,
상기 감성 추론단계는 검출된 상기 음원에 기초하여 상기 저장된 감성으로부터 매칭되는 감성을 추론하는 것을 특징으로 하는 감성연출이 가능한 장치의 지능형 감성연출 방법.The method of claim 10,
Storing emotions represented by at least one of a color, an image, a font, an emoticon, an avatar, a video, a voice, a tone, a sound quality, and a sound wave, corresponding to each emotion class classified in the emotion word dictionary; And
Detecting a sound source including at least one of a tone, sound quality, and sound wave from the voice signal
More,
The emotional reasoning step is an intelligent emotional expression method of the emotion-expressing device, characterized in that it infers a matched emotion from the stored emotion based on the detected sound source.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20100106316 | 2010-10-28 | ||
KR1020100106316 | 2010-10-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20120044911A true KR20120044911A (en) | 2012-05-08 |
Family
ID=46264571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110110704A KR20120044911A (en) | 2010-10-28 | 2011-10-27 | Affect producing servece providing system and method, and device for producing affect and method therefor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20120044911A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101403329B1 (en) * | 2012-05-09 | 2014-06-09 | 한양대학교 산학협력단 | Apparatus and method for providing with study contents based on affective event ontology |
KR20170013015A (en) | 2015-07-27 | 2017-02-06 | 주식회사 프론트유 | An emotion communication system by using smart toys |
CN112446306A (en) * | 2020-11-13 | 2021-03-05 | 阳光保险集团股份有限公司 | Emotion intensity identification method and device, electronic equipment and storage medium |
-
2011
- 2011-10-27 KR KR1020110110704A patent/KR20120044911A/en not_active Application Discontinuation
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101403329B1 (en) * | 2012-05-09 | 2014-06-09 | 한양대학교 산학협력단 | Apparatus and method for providing with study contents based on affective event ontology |
KR20170013015A (en) | 2015-07-27 | 2017-02-06 | 주식회사 프론트유 | An emotion communication system by using smart toys |
CN112446306A (en) * | 2020-11-13 | 2021-03-05 | 阳光保险集团股份有限公司 | Emotion intensity identification method and device, electronic equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110288077B (en) | Method and related device for synthesizing speaking expression based on artificial intelligence | |
US9368102B2 (en) | Method and system for text-to-speech synthesis with personalized voice | |
CN107153496B (en) | Method and device for inputting emoticons | |
KR101160193B1 (en) | Affect and Voice Compounding Apparatus and Method therefor | |
KR102196199B1 (en) | Photograph sharing method, apparatus and system based on voice recognition | |
CN110414404A (en) | Image processing method, device and storage medium based on instant messaging | |
CN107423277A (en) | A kind of expression input method, device and terminal | |
JP6122792B2 (en) | Robot control apparatus, robot control method, and robot control program | |
US20210065695A1 (en) | Program storage medium, method, and apparatus for determining point at which trend of conversation changed | |
CN110442867B (en) | Image processing method, device, terminal and computer storage medium | |
KR101191922B1 (en) | Instant Messenger Service Providing System and Method therefor, and Communication Terminal and Method | |
CN110781329A (en) | Image searching method and device, terminal equipment and storage medium | |
KR101250520B1 (en) | Community Formation System, Mobile and Method based on Affect | |
KR20120044911A (en) | Affect producing servece providing system and method, and device for producing affect and method therefor | |
CN114567693B (en) | Video generation method and device and electronic equipment | |
CN116741149B (en) | Cross-language voice conversion method, training method and related device | |
CN108255917A (en) | Image management method, equipment and electronic equipment | |
JP2015146550A (en) | information processing apparatus, information processing method, and program | |
CN103297611A (en) | Method and system masking message on electronic device | |
US11749270B2 (en) | Output apparatus, output method and non-transitory computer-readable recording medium | |
KR102388465B1 (en) | Virtual contents creation method | |
CN110795581B (en) | Image searching method and device, terminal equipment and storage medium | |
CN112489619A (en) | Voice processing method, terminal device and storage medium | |
CN111724799B (en) | Sound expression application method, device, equipment and readable storage medium | |
US20240086622A1 (en) | Methods and system for paraphrasing communications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
N231 | Notification of change of applicant | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |