[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2005216087A - Electronic mail reception device and electronic mail transmission device - Google Patents

Electronic mail reception device and electronic mail transmission device Download PDF

Info

Publication number
JP2005216087A
JP2005216087A JP2004023428A JP2004023428A JP2005216087A JP 2005216087 A JP2005216087 A JP 2005216087A JP 2004023428 A JP2004023428 A JP 2004023428A JP 2004023428 A JP2004023428 A JP 2004023428A JP 2005216087 A JP2005216087 A JP 2005216087A
Authority
JP
Japan
Prior art keywords
mail
data
emotion
unit
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004023428A
Other languages
Japanese (ja)
Inventor
Tatsuya Arayagaito
達也 新谷垣内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2004023428A priority Critical patent/JP2005216087A/en
Publication of JP2005216087A publication Critical patent/JP2005216087A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To express feeling expression of an electronic mail transmitter by face image output and synthesized voice output on a reception side. <P>SOLUTION: This electronic mail reception device 14 has: a feeling expression data extraction part 12 extracting feeling expression data from a mail sentence when the feeling expression data showing feeling are inserted inside the received mail sentence and when simultaneously received attached data are base face data showing a position and a size of each portion showing a characteristic of a person face, and generating a feeling parameter according to the kind of the feeling shown thereby; a face data reproduction part 13 supplied with the base face data and the feeling parameter, performing a change on the basis of the base face data and the feeling parameter, and outputting an image as a face image; and a voice synthesis output part 11 supplied with the feeling parameter, and imparting variation to intonation in voice synthesis on the basis thereof to perform the voice synthesis. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、メール文を合成音声で読み上げ可能な電子メール受信装置及び電子メール送信装置に関するものであり、特に送信者の感情表現に係るデータも送受信し、受信側ではこの感情表現データに基づいた顔画像を表示させ、又合成音声にも感情表現をさせることが可能な電子メール受信装置及び電子メール送信装置に関するものである。   The present invention relates to an e-mail receiving apparatus and an e-mail transmitting apparatus that can read out a mail sentence with synthesized speech. In particular, the present invention also transmits and receives data related to the emotional expression of the sender, and the receiving side is based on this emotional expression data The present invention relates to an e-mail receiving apparatus and an e-mail transmitting apparatus capable of displaying a face image and expressing emotions in synthesized speech.

近年、相手と要件のやり取りをする通信手段として電子メールが広く普及しているが、これには電話と違って相手の感情を読み取りにくいという欠点があった。そこで、より詳しい多彩な情報を伝えるためにデジタル化された写真(静止画情報)や動画情報、又は音声情報をファイルデータとしてメールに添付して送信することも、文献名を挙げるまでもなくごく一般的に行われている。   In recent years, e-mail has been widely used as a communication means for exchanging requirements with the other party. However, unlike the telephone, this has a drawback that it is difficult to read the other party's feelings. In order to convey more detailed and diverse information, digitalized photos (still image information), moving image information, or audio information can be sent as e-mail attachments as file data. Generally done.

また、送信者の様々な感情表現を相手に伝えるべく喜び、怒り、悲しみ等の感情を伴ったメール文を音声合成により読み上げることが可能な電子メール受信装置及び電子メールシステムが特許文献1に開示されている。
また、例えば電子メールの受信側でメール文に基づいて合成音声又は顔合成画像を表示するにあたり、そのメール文の送信者が意図したとおりの表示を可能とする合成画像表示システムが特許文献2に開示されている。
特開2001−34280号公報 特許第3299797号公報
Further, Patent Document 1 discloses an e-mail receiving apparatus and an e-mail system that can read out a mail sentence accompanied by emotions such as joy, anger, and sadness by voice synthesis to convey various emotion expressions of the sender to the other party. Has been.
Further, for example, Japanese Patent Application Laid-Open No. 2003-228867 discloses a composite image display system that enables display as intended by the sender of the mail text when displaying the synthesized speech or the face composite image based on the mail text on the e-mail receiving side. It is disclosed.
JP 2001-34280 A Japanese Patent No. 32999797

送信者が自分の様子を通信相手に正確に伝えようとする場合、前述したように静止画情報又は動画情報、及び音声情報をメールに添付して送信することが考えられる。
しかし、静止画情報と音声情報とを添付した場合、これらの情報は時間的に連携し得ず、又動画情報と音声情報との添付である場合は両者の連携は可能なもののデータ容量が格段に大きく、送受信線路がインターネット等の電気通信回線網であった場合にそのトラフィックに大きな負荷がかかる等の問題が顕著となって、コスト的にも実用的にも好ましくない。
これは、特許文献1に開示された発明を用いて、静止画情報又は動画情報をメール添付する手段においても同様な問題を有する。
When the sender wants to accurately convey his / her state to the communication partner, as described above, it is conceivable that the still image information or the moving image information and the audio information are attached to the mail and transmitted.
However, when still image information and audio information are attached, the information cannot be temporally linked. When moving image information and audio information are attached, the two can be linked but the data capacity is extremely large. However, when the transmission / reception line is a telecommunication network such as the Internet, problems such as a heavy load on the traffic become remarkable, which is not preferable in terms of cost and practical use.
This has the same problem in the means for attaching still image information or moving image information by e-mail using the invention disclosed in Patent Document 1.

また、特許文献2に開示された発明においては、顔画像情報をパラメータとして送信することができ、この点では上記特許文献1のような問題は改善されている。しかしながら、この発明の場合、メール文の文中で感情が変化した場合に即時的に表情を変化させるといった柔軟な対応をとることができない問題がある。   In the invention disclosed in Patent Document 2, face image information can be transmitted as a parameter. In this respect, the problem as in Patent Document 1 is improved. However, in the case of the present invention, there is a problem that it is not possible to take a flexible measure such as instantly changing the facial expression when the emotion changes in the mail sentence.

本願発明は以上のような問題点を解決するためになされたものであり、送信者がメール文に関する自身の感情を受信者に伝える手段として、人間の顔を表す顔画像を顔画像データそのものではなくて表情の特徴を表す部位に関する情報のみを送信し、また送信者のメール文における感情についてその感情の種類を示す識別子をメール文の文中、つまり感情を表現したい箇所に挿入して送信することで、受信側では顔画像を表示させつつメール文を音声合成により音声出力させる際に、送信者の意図したタイミングで感情を反映した合成音声と顔画像を出力させることを可能とする電子メール受信装置及び電子メール送信装置を提供することを目的とする。   The present invention has been made in order to solve the above-described problems, and as a means for the sender to convey the feelings about the mail sentence to the receiver, the face image representing the human face is not represented by the face image data itself. Send only information about the part that expresses the characteristics of the facial expression, and insert an identifier indicating the type of emotion in the email text of the sender, inserting it in the text of the email text, that is, where you want to express the emotion. Thus, when receiving a voice message by voice synthesis while displaying a face image on the receiving side, it is possible to output a synthesized voice and face image reflecting emotions at the timing intended by the sender An object of the present invention is to provide a device and an electronic mail transmission device.

本発明は、上述した課題を解決するために以下の(1)及び(2)の手段より構成したものである。   The present invention comprises the following means (1) and (2) in order to solve the above-mentioned problems.

(1)メール文としてのテキストデータと、このメール文に添付された人物顔の特徴を示すパラメータからなる基本顔データとが受信された場合、前記受信されたテキストデータを音声合成処理してこの合成処理されたデータを音声出力させる音声合成出力部を備えた電子メール受信装置であって、前記受信されたテキストデータの文中から予め抽出すべき感情表現として決定された所定の文字列との比較によって前記メール文の送信者の感情表現データを抽出し、この感情表現データが示す感情の種類に応じた感情パラメータを生成する感情表現データ抽出部と、前記受信した基本顔データを前記生成された感情パラメータに基づき前記送信者の感情に応じた表現に変更し、この変更した顔画像を画像出力する顔データ再生部とを具備すると共に、前記音声合成出力部は、前記音声合成処理する際に前記感情表現データ抽出部から供給された感情パラメータに基づきイントネーションに変化を与えるように構成したことを特徴とした電子メール受信装置。 (1) When text data as a mail sentence and basic face data consisting of parameters indicating the characteristics of a human face attached to the mail sentence are received, the received text data is subjected to speech synthesis processing and Comparing with a predetermined character string determined as an emotion expression to be extracted in advance from a sentence of the received text data, an e-mail receiving device comprising a speech synthesis output unit for outputting synthesized data by voice The emotion expression data of the sender of the e-mail sentence is extracted, and an emotion expression data extraction unit that generates an emotion parameter according to the type of emotion indicated by the emotion expression data, and the received basic face data is generated A face data reproducing unit that changes the expression according to the emotion of the sender based on the emotion parameter and outputs the changed face image as an image. Both the voice synthesizing output unit, electronic mail receiving apparatus, wherein said by being configured to provide a change in intonation based on the supplied emotion parameters from emotional expression data extraction unit when the speech synthesis process.

(2)請求項1に記載の電子メール受信装置に送信するための電子メール送信装置であって、人物顔の表情を決定する各部位の大きさや配置位置のパラメータからなる基本顔データを生成する基本顔データ作成部を有し、この生成された基本顔データを前記テキストデータに添付して送信する構成であることを特徴とした電子メール送信装置。 (2) An e-mail transmitting apparatus for transmitting to the e-mail receiving apparatus according to claim 1, wherein basic face data including parameters of size and arrangement position of each part for determining a facial expression of a human face is generated. An e-mail transmission apparatus comprising a basic face data creation unit and configured to transmit the generated basic face data attached to the text data.

請求項1に記載の発明によれば、電子メール送信者が例えば自分の顔を表すような基本顔データを作成し、メール文の文中に予め定めた感情を表現するための感情表現データを挿入して前記基本顔データと共に電子メール送信した場合、このメールの受信者は受信したメール文を閲覧すると共に、このメール文の中に挿入された前記感情表現データに示された感情の種類に基づき、音声合成によるメール文読み上げに感情の変化を出させ、又各感情を表現した顔画像を適宜表示させることができる。
これにより、電子メールの受信者はメール送信者の表現したい感情を顔画像及び合成音声によって豊かに再現し得られるという格別な効果を得るものである。
According to the first aspect of the present invention, the e-mail sender creates basic face data representing, for example, his / her face, and inserts emotion expression data for expressing a predetermined emotion in the mail sentence. When the e-mail is transmitted together with the basic face data, the recipient of the e-mail browses the received e-mail text and based on the type of emotion indicated in the emotion expression data inserted in the e-mail text. In addition, it is possible to change emotions in reading out a mail sentence by voice synthesis, and to appropriately display a face image expressing each emotion.
As a result, the recipient of the e-mail can obtain a special effect that the emotion that the mail sender wants to express can be richly reproduced by the face image and the synthesized voice.

請求項2に記載の発明によれば、上述したように電子メール送信者は基本顔データを作成し、又メール文の文中に予め定めた感情を表現するための感情表現データを挿入して前記基本顔データと共に電子メール送信しさえすれば、電子メールに添付する前記基本顔データは画像そのものではなく所定のパラメータであり、又感情表現データも文中に挿入するるデータであるため、メール文自体以外に送信するデータ量を極めて少なくすることができ、電気通信回線にかかる伝送負荷の極めて少ない電子メール送信装置を実現できるという格別な効果を有する。   According to the second aspect of the present invention, as described above, the e-mail sender creates basic face data, and inserts emotion expression data for expressing a predetermined emotion in the sentence of the mail sentence, and As long as the e-mail is sent together with the basic face data, the basic face data to be attached to the e-mail is not an image itself but a predetermined parameter, and emotion expression data is also inserted into the sentence. In addition to this, it is possible to extremely reduce the amount of data to be transmitted and to achieve an e-mail transmission apparatus with a very small transmission load on the telecommunication line.

また、上述したとおり電子メールの作成においては感情を表現したい箇所に感情表現データを挿入するだけで所望の箇所で所望の感情を表現できるという送信者側の操作容易性を備えている。   Further, as described above, the creation of an e-mail has the ease of operation on the sender side that a desired emotion can be expressed at a desired location simply by inserting emotion expression data into the location where the emotion is to be expressed.

以下、本発明の一実施形態例について図面を参照して説明する。まず、図1は本発明の実施の形態に係る電子メールシステムの機能を例示したブロック図である。同図において、1は送信者が後述する感情表現データを指定しながらメール文を作成するためのテキスト入力部、2は前記メール文と共に送信される顔画像に関する基本顔データを送信者が操作によって作成するための基本顔データ作成部、3は基本顔データ作成部2で作成された基本顔データを記憶しておくための基本顔データ記憶部、4はテキスト入力部1で作成されたメール文に基本顔データ記憶部3に記憶された基本顔データを添付して電子メールとして送信可能化するためのメール送信部、5は前記送信可能化された電子メールを後述する通信回線に出力するための第1の通信インターフェース(I/F)部であり、以上1乃至5による構成が電子メール送信部6である。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. First, FIG. 1 is a block diagram illustrating functions of an electronic mail system according to an embodiment of the present invention. In the figure, 1 is a text input unit for creating a mail sentence while the sender specifies emotion expression data to be described later, and 2 is a basic face data related to a face image transmitted together with the mail sentence. A basic face data creation unit 3 for creating, a basic face data storage unit 3 for storing the basic face data created by the basic face data creation unit 2, and a mail sentence created by the text input unit 1 A mail transmission unit 5 for attaching the basic face data stored in the basic face data storage unit 3 to enable transmission as an electronic mail, and 5 for outputting the transmission enabled electronic mail to a communication line described later. The first communication interface (I / F) unit, and the configuration according to 1 to 5 is the e-mail transmission unit 6.

また、7は電子メール送信部6の第1の通信I/F部5から送信された電子メールを前記通信回線を介して受信するための第2の通信I/F部、8は第2の通信I/F部7で受信した電子メールから前記メール文及び基本顔データを抽出するためのメール受信部、9はメール受信部8で抽出されたメール文及び基本顔データを蓄積するためのメール蓄積部、10はメール蓄積部9に蓄積されたメール文と基本顔データとが受信者によって選択されてそれぞれ読み出されて後述する音声合成出力部と顔データ再生部とにそれぞれ供給され、又前記メール文については受信者が閲覧可能なメール閲覧部、11はメール閲覧部10で読み出されたメール文が供給されて音声合成処理をしつつ、これに同期したタイミングで前記メール文が感情表現データ抽出部に出力され、この感情表現データ抽出部から後述の感情パラメータがフィードバックされて前記メール閲覧部10から供給されたメール文の音声合成処理に反映され、感情を有した音声出力をさせるための音声合成出力部、12は音声合成出力部11から供給されたメール文を解析しながら文中に挿入されている前記感情表現データを抽出し、この感情表現データに基づいた前記感情パラメータを音声合成出力部11及び後述の顔データ再生部に供給するための感情表現データ抽出部、13はメール閲覧部10から供給された基本顔データを感情表現データ抽出部12から供給された感情パラメータに基づいて前記基本顔データを変更しながら出力するための顔データ再生部であり、以上7乃至13による構成が電子メール受信部14である。   Reference numeral 7 denotes a second communication I / F unit for receiving the e-mail transmitted from the first communication I / F unit 5 of the e-mail transmission unit 6 via the communication line, and 8 denotes a second communication I / F unit. A mail receiving unit for extracting the mail text and basic face data from the electronic mail received by the communication I / F unit 7, and 9 is a mail for storing the mail text and basic face data extracted by the mail receiving unit 8. The storage unit 10 selects the mail text and basic face data stored in the mail storage unit 9 by the receiver, reads them out, and supplies them to a speech synthesis output unit and a face data playback unit, which will be described later. The mail text can be browsed by the recipient with respect to the mail text, 11 is supplied with the text read by the mail browsing section 10 and is subjected to speech synthesis processing. Expression The emotion parameter described below is fed back from the emotion expression data extraction unit and reflected in the voice synthesis process of the mail text supplied from the mail browsing unit 10 to output voice with emotion. The voice synthesis output unit 12 extracts the emotion expression data inserted in the sentence while analyzing the mail sentence supplied from the voice synthesis output unit 11, and voice-synthesizes the emotion parameter based on the emotion expression data. An emotion expression data extracting unit 13 for supplying to the output unit 11 and a face data reproducing unit to be described later, 13 is the basic face data supplied from the mail browsing unit 10 based on the emotion parameters supplied from the emotion expression data extracting unit 12. A face data reproduction unit for outputting the basic face data while changing the basic face data. 4.

また、同図において15は電子メール送信部6から送信された電子メールを電子メール受信部14で受信させるために第1の通信I/F部5と第2の通信I/F部7とを接続する通信回線である。   Further, in the figure, reference numeral 15 denotes a first communication I / F unit 5 and a second communication I / F unit 7 in order for the e-mail receiving unit 14 to receive the e-mail transmitted from the e-mail transmitting unit 6. A communication line to be connected.

以上構成を示したように、前記電子メールシステムは電子メール送信部6と電子メール受信部14とが通信回線15を介して接続されるものである。   As described above, in the electronic mail system, the electronic mail transmitting unit 6 and the electronic mail receiving unit 14 are connected via the communication line 15.

また、図2は図1の電子メールシステムを具体的なハードウェア構成として例示したブロック図である。同図において、前記電子メールシステムは電子メール送信装置21と電子メール受信装置22とが電気通信回線23を介して接続されている。   FIG. 2 is a block diagram illustrating the electronic mail system of FIG. 1 as a specific hardware configuration. In the figure, in the electronic mail system, an electronic mail transmitting device 21 and an electronic mail receiving device 22 are connected via an electric communication line 23.

まず、電子メール送信装置21において、201は送信者がメール文の入力を行ったり電子メール送信装置21を動作させるための入力部、202は電子メール送信装置21全体を制御するための制御部、202aは制御部202に含まれて後述の記憶部203に記憶された送信制御プログラムによって制御されるCPU、203は制御部202で処理されるデータや前記送信制御プログラムが記憶される記憶部、204は制御部202で制御される前記送信制御プログラムの処理結果や入力部201で送信者が入力したメール文を表示させるための表示部、205は制御部202から供給された電子メールを電気通信回線23に出力するための通信部である。   First, in the electronic mail transmitting device 21, 201 is an input unit for a sender to input a mail text or operate the electronic mail transmitting device 21, 202 is a control unit for controlling the entire electronic mail transmitting device 21, 202a is a CPU that is included in the control unit 202 and is controlled by a transmission control program stored in a storage unit 203, which will be described later, 203 is a storage unit that stores data processed by the control unit 202 and the transmission control program, and 204 Is a display unit for displaying the processing result of the transmission control program controlled by the control unit 202 and the mail text input by the sender at the input unit 201, and 205 is an electronic communication line for sending the email supplied from the control unit 202 23 is a communication unit for outputting to the terminal 23.

そして、電子メール受信装置22において、206は電子メール送信装置21から電気通信回線23を介して供給された電子メールを受信するための通信部、207は電子メール受信装置22全体を制御するための制御部、207aは制御部207に含まれて後述の記憶部208に記憶された受信制御プログラムによって制御されるCPU、208は制御部207で処理されるデータや前記受信制御プログラムが記憶される記憶部、209は制御部207で制御される前記受信制御プログラムの処理結果や通信部206で受信した前記電子メールの内容を表示させるための表示部、210は電子メール受信装置22を動作させるための入力部、211は音声を発生させるための音声出力部である。   In the electronic mail receiving apparatus 22, 206 is a communication unit for receiving electronic mail supplied from the electronic mail transmitting apparatus 21 via the electric communication line 23, and 207 is for controlling the entire electronic mail receiving apparatus 22. A control unit 207a is included in the control unit 207 and is controlled by a reception control program stored in a storage unit 208, which will be described later, and 208 is a memory that stores data processed by the control unit 207 and the reception control program. 209, a display unit for displaying the processing result of the reception control program controlled by the control unit 207 and the content of the e-mail received by the communication unit 206, and 210 for operating the e-mail receiving device 22. An input unit 211 is a sound output unit for generating sound.

以上、図1及び図2から機能ブロックとハードウェアブロックとの関係は次のとおりである。つまり、電子メール送信部6、電子メール受信部14、そして通信回線15の機能ブロックに相当するハードウェアは、それぞれ電子メール送信装置21、電子メール受信装置22、そして電気通信回線23である。   As described above, the relationship between the functional block and the hardware block from FIGS. 1 and 2 is as follows. That is, the hardware corresponding to the functional blocks of the e-mail transmission unit 6, the e-mail reception unit 14, and the communication line 15 are the e-mail transmission device 21, the e-mail reception device 22, and the telecommunication line 23, respectively.

そして、電子メール送信部6におけるテキスト入力部1及び基本顔データ作成部2は、入力部201からの入力に基づいて制御部202のCPU202aによる前記送信制御プログラムの制御によって実現され、基本顔データ記憶部3は記憶部203によって実現され、メール送信部4は制御部202のCPU202aによる前記送信制御プログラムの制御によって実現され、又第1の通信I/F部5は通信部205によって実現される。   The text input unit 1 and the basic face data creation unit 2 in the e-mail transmission unit 6 are realized by the control of the transmission control program by the CPU 202a of the control unit 202 based on the input from the input unit 201, and the basic face data storage The unit 3 is realized by the storage unit 203, the mail transmission unit 4 is realized by the control of the transmission control program by the CPU 202 a of the control unit 202, and the first communication I / F unit 5 is realized by the communication unit 205.

また、電子メール受信部14における第2の通信I/F部7は記憶部208によって実現され、メール受信部8、メール閲覧部10、及び感情表現データ抽出部12は制御部207のCPU207aによる前記受信制御プログラムの制御によって実現され、メール蓄積部9は記憶部208によって実現され、音声合成出力部11は制御部207のCPU207aによる前記受信制御プログラムの制御と音声出力部211によって実現され、顔データ再生部13は制御部207のCPU207aによる前記受信制御プログラムの制御と表示部209によって実現される。   The second communication I / F unit 7 in the e-mail receiving unit 14 is realized by the storage unit 208, and the mail receiving unit 8, the mail browsing unit 10, and the emotion expression data extracting unit 12 are executed by the CPU 207 a of the control unit 207. The mail storage unit 9 is realized by the storage unit 208, and the voice synthesis output unit 11 is realized by the control of the reception control program by the CPU 207a of the control unit 207 and the voice output unit 211, and is realized by the control of the reception control program. The reproduction unit 13 is realized by the control of the reception control program by the CPU 207 a of the control unit 207 and the display unit 209.

図2に示した構成例によれば、電子メール送信装置22及び電子メール受信装置23はオペレーティングシステム上で動作可能な前記送信制御プログラム又は受信制御プログラムを有したパーソナルコンピュータで構成してもよいし、又は図2の各構成を専用のハードウェアとプログラムとで構成した電子メール端末に構成してもよい。   According to the configuration example shown in FIG. 2, the e-mail transmission device 22 and the e-mail reception device 23 may be configured by a personal computer having the transmission control program or the reception control program operable on an operating system. Alternatively, each configuration of FIG. 2 may be configured as an electronic mail terminal configured with dedicated hardware and a program.

以上説明した構成による電子メールシステムの動作について電子メール送信部6と電子メール受信部14とに分けて図と共に説明する。
まず、電子メール送信部6の動作について説明する。送信者は、予め基本顔データ作成部2で基本顔データを作成しておく必要がある。この基本顔データとは、人間の顔の輪郭、目、口等顔の各部位の大きさや配置の位置等を数値で示したものであり、例えば前記送信者が自分の顔に見たてた基本顔データを作成できるものである。
The operation of the e-mail system having the above-described configuration will be described with reference to the drawing, divided into the e-mail transmission unit 6 and the e-mail reception unit 14.
First, the operation of the e-mail transmission unit 6 will be described. The sender needs to create basic face data by the basic face data creation unit 2 in advance. This basic face data is a numerical value indicating the size of each part of the face, such as the outline of the human face, eyes, mouth, position of placement, etc., for example, the sender has seen on his face Basic face data can be created.

図3に前記基本顔データのデータ構成例を示す。同図は、顔を構成する輪郭、髪型,眉、目、及び口を各部位とし、これら各部位の大きさ(幅及び、高さ又は厚さ)と顔の中心位置からの2次元の距離による配置位置とを数値化したデータ構成を示したものである。同図において、例えば口は顔の中心位置からmyで示される量だけ下方に位置し、その厚さはmh、幅はmwである。眉や目についても同様にこれらの各配置位置及び大きさが数値で示される。   FIG. 3 shows a data configuration example of the basic face data. This figure shows the contours, hairstyle, eyebrows, eyes, and mouth that make up the face, and the size (width and height or thickness) of each part and the two-dimensional distance from the center of the face. The data structure which digitized the arrangement position by is shown. In the figure, for example, the mouth is positioned below the center position of the face by an amount indicated by my, the thickness is mh, and the width is mw. Similarly, for the eyebrows and eyes, these arrangement positions and sizes are indicated by numerical values.

顔の輪郭線については、例えばスプライン曲線化されて中継点がどこにあるかがfrで示される。   For the face outline, for example, a spline curve is formed, and fr indicates where the relay point is.

髪型については、好みによってその形状を設定したいとしても髪型の種類は多岐に渡り、しかも数値化が困難な程に複雑なものもあるので、例えば予め決められている複数の髪型候補から送信者が任意に選択するようにしてもよい。   For hairstyles, there are a wide variety of hairstyles and it is difficult to quantify them even if you want to set the shape according to your taste. You may make it select arbitrarily.

また、前記輪郭、髪型、眉、目、及び口の各部位について色や模様を示す属性データを設定し、前記大きさ及び配置位置データに追加して前記基本顔データとしてもよい。   Further, attribute data indicating colors and patterns may be set for the contour, hairstyle, eyebrows, eyes, and mouth, and the basic face data may be added to the size and arrangement position data.

送信者は、前記基本顔データを生成するために基本顔の画像を表示部204に表示させておき、入力部201の操作によって各部位に係る数値を決定することができる。これは、前記送信制御プログラムによる制御部202の制御によって、例えば図4に示すような基本顔データ作成画面をGUI(Graphical User Interface)として表示部204に表示させ、入力部201からのGUI操作によって顔画像を見ながら前記各部位の大きさや配置位置を変更し、又髪型を選択することができる。同図において、左側は送信者が確認する前記顔画像であり、右側には前記各部位の大きさや配置位置を変化させるためのスライドバーや髪型候補の選択肢等が表示される。   The sender can display a basic face image on the display unit 204 in order to generate the basic face data, and can determine a numerical value related to each part by operating the input unit 201. For example, a basic face data creation screen as shown in FIG. 4 is displayed on the display unit 204 as a GUI (Graphical User Interface) by the control of the control unit 202 by the transmission control program, and the GUI operation from the input unit 201 is performed. While looking at the face image, the size and position of each part can be changed, and a hairstyle can be selected. In the figure, the left side is the face image that the sender confirms, and the right side displays a slide bar for changing the size and arrangement position of each part, hairstyle candidate options, and the like.

送信者は、これらを入力部201で操作することにより同図左側の顔画像に操作の結果が反映されるのを確認しながら所望の基本顔データを生成することができる。
このようにして生成された基本顔データは基本顔データ記憶部3に記憶される。これにより、一度生成された基本顔データはメール送信の際に繰り返し使用されることが可能である。
The sender can generate desired basic face data while confirming that the result of the operation is reflected in the face image on the left side of the figure by operating these with the input unit 201.
The basic face data generated in this way is stored in the basic face data storage unit 3. As a result, once generated basic face data can be repeatedly used in mail transmission.

なお、基本顔データ記憶部3に一旦記憶された基本顔データは、送信者の指定によって基本顔データ作成部2に再度読み出されて前記基本顔データ作成画面のGUIによる前記各部位の大きさや配置位置の修正が行われ、再び基本顔データ記憶部3にデータの置き換えとして記憶させたり、新たなデータとして記憶させることができる。   The basic face data once stored in the basic face data storage unit 3 is read again by the basic face data creation unit 2 according to the designation of the sender, and the size and the size of each part by the GUI of the basic face data creation screen are displayed. The arrangement position is corrected, and can be stored again in the basic face data storage unit 3 as data replacement or stored as new data.

次に、前記感情表現データの作成について説明する。送信者によって作成されるメール文において、送信者の抱く感情はその文の内容とともに変化するのが通常であるため、前記感情表現データはメール文の内容に応じてその都度指定されることが望ましい。本実施形態例においては、前記感情表現データ感情に応じて定めた所定の文字列としてメール文の文中に挿入させる。つまり、送信者はメール文の作成において、感情を表現したい箇所又は感情を変化させたい箇所に前記感情に応じて定めた所定の文字列を挿入して的確な箇所での所望の感情を示すようにする。   Next, creation of the emotion expression data will be described. In an e-mail sentence created by a sender, the emotion held by the sender usually changes with the contents of the sentence. Therefore, it is desirable that the emotion expression data is designated each time according to the contents of the e-mail sentence. . In the present embodiment example, the emotion expression data is inserted into the mail sentence as a predetermined character string determined according to the emotion. In other words, when creating a mail text, the sender inserts a predetermined character string determined according to the emotion into a location where the emotion is desired to be expressed or a location where the emotion is to be changed so as to indicate the desired emotion at the exact location. To.

前記所定の文字列とは、例えば図5に示すような文字列によるものである。同図に示した文字列はいわゆる「顔文字」と呼ばれるものであり、その文字列の全体形状が人間の喜怒哀楽等を表現した顔のように見えるものである。これら所定の文字列としては、前記顔文字の他、予め決めておいた特別な文字列や記号であってよい。これにおいて、詳細は後述するが電子メール受信部14の音声合成出力部11で前記メール文を音声合成処理によって音声出力させるが、前記所定の文字列がこの音声合成処理によって意味不明な言葉として発音されないように例えば音読不能な文字列を設定することとする。   The predetermined character string is, for example, a character string as shown in FIG. The character string shown in the figure is a so-called “emoticon”, and the entire shape of the character string looks like a face expressing human emotions. These predetermined character strings may be special character strings and symbols determined in advance in addition to the emoticons. In this case, although the details will be described later, the voice text is output by voice synthesis processing by the voice synthesis output unit 11 of the e-mail receiving unit 14, but the predetermined character string is pronounced as an unknown word by the voice synthesis processing. For example, a character string that cannot be read aloud is set.

以上のようにして前記感情表現データが挿入されたメール文及び基本顔データが準備された後、メール送信部4はこのメール文に基本顔データを添付して、電子メールとして第1の通信I/F部5を通じて通信回線15にこれを送出する。そして、通信回線15に送出された前記電子メールは、通信回線15に接続された図示しないメールサーバやプロバイダ等を経由して送信先の電子メール受信部14で受信されることとなる。   After the e-mail text and the basic face data into which the emotion expression data is inserted are prepared as described above, the e-mail transmission unit 4 attaches the basic face data to the e-mail text and sends the first communication I as an e-mail. This is sent to the communication line 15 through the / F unit 5. The e-mail sent to the communication line 15 is received by the e-mail receiving unit 14 as a transmission destination via a mail server, a provider, etc. (not shown) connected to the communication line 15.

次に、電子メール送信部6から送信された前記電子メールを受信した電子メール受信部14の動作について説明する。電子メール受信部14は、第2の通信I/F部7を通じてメール受信部8に前記電子メールを読み込み、前記メール文とこれに添付された前記基本顔データとがそれぞれ抽出されてメール蓄積部9に記録される。   Next, the operation of the e-mail receiving unit 14 that has received the e-mail transmitted from the e-mail transmitting unit 6 will be described. The e-mail receiving unit 14 reads the e-mail into the mail receiving unit 8 through the second communication I / F unit 7, extracts the e-mail text and the basic face data attached thereto, and stores the e-mail storage unit. 9 is recorded.

その後、メール蓄積部9に記録された前記メール文及び基本顔データは受信者の操作によってメール閲覧部10に読み出され、メール文については表示閲覧されることができる。   Thereafter, the mail text and the basic face data recorded in the mail storage section 9 are read out to the mail browsing section 10 by the operation of the recipient, and the mail text can be displayed and browsed.

次に、前記メール文の音声合成処理とこのメール文に挿入された前記感情表現データの処理について説明する。メール閲覧部10は前記読み出されたメール文を音声合成出力部11に供給すると共に、前記読み出された基本顔データを顔データ再生部13に供給する。   Next, speech synthesis processing of the mail sentence and processing of the emotion expression data inserted into the mail sentence will be described. The mail browsing unit 10 supplies the read mail text to the speech synthesis output unit 11 and supplies the read basic face data to the face data reproduction unit 13.

音声合成出力部11では、前記供給されたメール文を音声合成処理によって音声データに変換しながら音声出力させる。これにおいて、前記音声合成処理は周知技術をもって前記メール文のテキストデータをデジタル音声データに変換することが可能であり、例えば具体的態様としては音声合成ソフトウェアとしてこの機能を実現し、制御部207のCPU207aの制御によって前記メール文をデジタル音声データに変換し、これを音声出力部211に供給することで実現するものである。   The voice synthesizing output unit 11 outputs the supplied mail text while converting the supplied mail sentence into voice data by voice synthesis processing. In this case, the voice synthesis process can convert the text data of the mail text into digital voice data with a well-known technique. For example, this function is realized as voice synthesis software as a specific mode. This is realized by converting the mail text into digital voice data under the control of the CPU 207 a and supplying the digital voice data to the voice output unit 211.

なお、前述したとおり、音声合成出力部11での前記メール文の音声合成処理に際し、文中から前記感情表現データが抽出された場合、このデータについては発音不可能な文字列として設定されているために音声データには変換されず、前記感情表現データ自体は音声出力部211では発音されない。   Note that, as described above, when the emotional expression data is extracted from the sentence during the voice synthesis process of the mail sentence in the voice synthesis output unit 11, this data is set as a character string that cannot be pronounced. The voice expression data itself is not pronounced by the voice output unit 211.

音声合成出力部11で音声合成処理がされて音声出力されるメール文は、この音声合成処理に同期して感情表現データ抽出部12に供給される。感情表現データ抽出部12は音声合成出力部11から供給された前記メール文を逐次読み込みながら前記感情表現データを検索する。これは、この感情表現データが所定の文字列で構成されているため、読み込んだ文字のキャラクタコードを調べることで前記感情表現データを抽出することが可能である。   The mail text that is voice-synthesized by the voice synthesis output unit 11 and output as a voice is supplied to the emotion expression data extraction unit 12 in synchronization with the voice synthesis process. The emotional expression data extraction unit 12 searches the emotional expression data while sequentially reading the mail text supplied from the speech synthesis output unit 11. This is because the emotion expression data is composed of a predetermined character string, and the emotion expression data can be extracted by examining the character code of the read character.

感情表現データ抽出部12は、前記感情表現データを抽出すると感情の種類に応じたパラメータを音声合成出力部11及び顔データ再生部13に供給する。これにおいて、前記感情の種類に応じたパラメータとは、図5に示した感情表現データを例にとると、「喜」は0、「怒」は1、「哀」は2、そして「楽」は3というふうに感情の種類を数値で定義付けたものである。   When the emotion expression data extraction unit 12 extracts the emotion expression data, the emotion expression data extraction unit 12 supplies parameters corresponding to the type of emotion to the speech synthesis output unit 11 and the face data reproduction unit 13. In this case, when the emotion expression data shown in FIG. 5 is used as an example of the parameter corresponding to the type of emotion, “joy” is 0, “anger” is 1, “sorrow” is 2, and “easy”. Is a definition of the type of emotion numerically, such as 3.

感情表現データ抽出部12から前記感情パラメータを供給された音声合成出力部11は、入来したパラメータ値に基づき、これが示す感情を表現させるために声の抑揚、音調、語調といったイントネーションを変化させるための指定を前記音声合成処理に入力し、これにより生成させる音声データに前記示した感情を含めることができる。   The speech synthesis output unit 11 supplied with the emotion parameter from the emotion expression data extraction unit 12 changes the intonation such as voice inflection, tone, and tone to express the emotion indicated by the incoming parameter value. Is input to the voice synthesis process, and the emotion shown above can be included in the voice data to be generated.

また、顔データ再生部13は、前述したようにメール閲覧部10から前記基本顔データが供給されて顔画像として表示させる。そして、感情表現データ抽出部12から前記感情パラメータが供給されると、入来したパラメータ値に基づき、これが示す感情を表現するような顔画像になるよう前記基本顔データを変更して再表示させる。図6に「喜」「怒」「哀」「楽」それぞれに対応した前記顔画像の例を示す。   Further, as described above, the face data reproduction unit 13 is supplied with the basic face data from the mail browsing unit 10 and displays it as a face image. Then, when the emotion parameter is supplied from the emotion expression data extraction unit 12, the basic face data is changed and re-displayed based on the incoming parameter value so as to obtain a face image that expresses the emotion indicated by the parameter value. . FIG. 6 shows examples of the face images corresponding to “joy”, “anger”, “sorrow”, and “easy”, respectively.

以上詳述したように、本発明の実施形態例である電子メール受信装置は、メール送信者が例えば自分の顔を表すような基本顔データを作成し、メール文の文中に予め定めた感情を表現するための感情表現データを挿入して前記基本顔データと共に電子メール送信した場合、このメールの受信者は受信したメール文を閲覧すると共に、このメール文の中に挿入された前記感情表現データに示された感情の種類に基づき、音声合成によるメール文読み上げに感情の変化を出させ、又各感情を表現した顔画像を適宜表示させることができる。
これにより、電子メールの受信者はメール送信者の表現したい感情を顔画像及び合成音声によって豊かに再現し受け取ることができる。
As described above in detail, the e-mail receiving apparatus according to the embodiment of the present invention creates basic face data such that the mail sender represents, for example, his / her face, and expresses a predetermined emotion in the mail sentence. When the emotional expression data for expression is inserted and the e-mail is transmitted together with the basic face data, the recipient of this mail browses the received mail sentence and the emotional expression data inserted in the mail sentence Based on the types of emotions shown in the above, it is possible to cause emotional changes to be read out by mail synthesis by speech synthesis, and to appropriately display face images expressing each emotion.
Thus, the recipient of the e-mail can reproduce and receive the emotion that the mail sender wants to express with the face image and the synthesized voice.

また、前述したように電子メール送信装置については、電子メール送信者は基本顔データを作成し、又メール文の文中に予め定めた感情を表現するための感情表現データを挿入して前記基本顔データと共に電子メール送信しさえすれば、電子メールに添付する前記基本顔データは画像そのものではなく所定のパラメータであり又感情表現データも文中に挿入するるデータであるため、メール文自体以外に送信するデータ量を極めて少なくすることができ、電気通信回線にかかる伝送負荷を極めて少なくすることができる。   In addition, as described above, with respect to the e-mail transmission device, the e-mail sender creates basic face data, and inserts emotion expression data for expressing a predetermined emotion in the sentence of the e-mail sentence. As long as an email is sent together with the data, the basic face data attached to the email is not an image itself but a predetermined parameter, and emotion expression data is also inserted into the text. The amount of data to be performed can be extremely reduced, and the transmission load applied to the telecommunication line can be extremely reduced.

また、上述したとおり電子メールの作成においては感情を表現したい箇所に感情表現データを挿入するだけで所望の箇所で所望の感情を表現できるという送信者側の操作容易性を備えたものである。   In addition, as described above, the creation of an e-mail has the ease of operation on the sender side that a desired emotion can be expressed at a desired location simply by inserting emotion expression data into the location where the emotion is to be expressed.

なお、図2に示した構成例において、電子メール送信装置22及び電子メール受信装置23はオペレーティングシステム上で動作可能な前記送信制御プログラム又は受信制御プログラムを有したパーソナルコンピュータで構成してもよいし、又は図2の各構成を専用のハードウェアとプログラムとで構成した電子メール端末に構成してもよいと説明したが、電子メール送信装置22及び電子メール受信装置23が、メール送信機能及びメール受信機能の両方を具備するように構成さて電子メール送受信装置となるよう構成してもよい。これについては、この構成から見て技術的に詳細を説明するまでもなく十分可能である。   In the configuration example shown in FIG. 2, the e-mail transmission device 22 and the e-mail reception device 23 may be configured by a personal computer having the transmission control program or the reception control program operable on an operating system. 2 or may be configured as an e-mail terminal configured with dedicated hardware and a program. However, the e-mail transmitting device 22 and the e-mail receiving device 23 may have a mail transmitting function and a mail. The electronic mail transmission / reception apparatus may be configured to have both reception functions. This is sufficiently possible without needing to explain technical details in view of this configuration.

また、感情表現データの構成例としては、図5に示したような「顔文字」を例として挙げたが、このような特殊な文字列を設定して挿入するという手段以外に、実際のメール文に現れる感情に関する表現を感情表現データとして感情表現データ抽出部12に認識させるようにしてもよい。例えば、メール文中に「楽しい」、「嬉しい」、「泣くよ」、「怒ってる」等の感情を示す言葉が使用されていた場合、感情表現データ抽出部12は予め予約しておいたこれらの言葉と照合して抽出し、感情パラメータを出力するように制御させてもよい。この場合は、送信者はメールを作成するに際し、メール文中にわざわざ「顔文字」等の所定の文字列を挿入する必要はない。   In addition, as an example of the configuration of emotion expression data, “emoticon” as shown in FIG. 5 is given as an example, but in addition to means for setting and inserting such a special character string, an actual mail You may make it make the emotion expression data extraction part 12 recognize the expression regarding the emotion which appears in a sentence as emotion expression data. For example, when words indicating emotions such as “fun”, “happy”, “crying”, “angry” are used in the mail text, the emotion expression data extraction unit 12 reserves these in advance. You may make it control so that an emotion parameter may be output by collating and extracting a word. In this case, the sender need not bother to insert a predetermined character string such as “emoticon” into the mail text when composing the mail.

以上のように、本発明に係る電子メール受信装置及び電子メール送信装置は、送信者のメール文に関する感情を受信者側に顔画像出力と音声読み上げによって簡易に伝達することができるものであるが、本発明はこれを利用しテレビ電話、Webサイトの電子掲示板等の情報通信に有用である。
また、文章に応じて発音と画像を変化させることが可能であるため、例えば幼児向け教育機材においても有用である。
As described above, the e-mail receiving apparatus and e-mail transmitting apparatus according to the present invention can easily transmit emotions related to the sender's mail text to the receiver side by outputting a face image and reading aloud. The present invention is useful for information communication such as a video phone and an electronic bulletin board of a Web site using this.
Moreover, since pronunciation and an image can be changed according to a sentence, it is useful also in educational equipment for infants, for example.

本発明の実施の形態に係る電子メール受信装置及び電子メール送信装置の機能を例示したブロック図である。It is the block diagram which illustrated the function of the electronic mail receiving device and electronic mail transmitting device concerning an embodiment of the invention. 図1の電子メール受信装置及び電子メール送信装置を具体的なハードウェア構成として例示したブロック図である。FIG. 2 is a block diagram illustrating the e-mail receiving device and the e-mail transmitting device of FIG. 1 as a specific hardware configuration. 基本顔データのデータ構成例を示した図である。It is the figure which showed the data structural example of the basic face data. 基本顔データ作成画面をGUIとして表示した表示例である。It is the example of a display which displayed the basic face data creation screen as GUI. 感情表現データをあらわす文字列を例示したものである。The character string showing emotion expression data is illustrated. 感情をあらわす顔画像の表示例を示したものである。The example of a display of the facial image showing an emotion is shown.

符号の説明Explanation of symbols

1 テキスト入力部
2 基本データ作成部
3 基本顔データ記憶部
4 メール送信部
5 第1の通信I/F部
6 電子メール送信部
7 第2の通信I/F部
8 メール受信部
9 メール蓄積部
10 メール閲覧部
11 音声合成出力部
12 感情表現データ抽出部
13 顔データ再生部
14 電子メール受信部
15 通信回線

DESCRIPTION OF SYMBOLS 1 Text input part 2 Basic data creation part 3 Basic face data memory | storage part 4 Mail transmission part 5 1st communication I / F part 6 E-mail transmission part 7 2nd communication I / F part 8 Mail receiving part 9 Mail storage part DESCRIPTION OF SYMBOLS 10 Mail browsing part 11 Speech synthesis output part 12 Emotion expression data extraction part 13 Face data reproduction part 14 E-mail reception part 15 Communication line

Claims (2)

メール文としてのテキストデータと、このメール文に添付された人物顔の特徴を示すパラメータからなる基本顔データとが受信された場合、前記受信されたテキストデータを音声合成処理してこの合成処理されたデータを音声出力させる音声合成出力部を備えた電子メール受信装置であって、
前記受信されたテキストデータの文中から予め抽出すべき感情表現として決定された所定の文字列との比較によって前記メール文の送信者の感情表現データを抽出し、この感情表現データが示す感情の種類に応じた感情パラメータを生成する感情表現データ抽出部と、
前記受信した基本顔データを前記生成された感情パラメータに基づき前記送信者の感情に応じた表現に変更し、この変更した顔画像を画像出力する顔データ再生部とを具備すると共に、
前記音声合成出力部は、前記音声合成処理する際に前記感情表現データ抽出部から供給された感情パラメータに基づきイントネーションに変化を与えるように構成したことを特徴とした電子メール受信装置。
When text data as mail text and basic face data consisting of parameters indicating the characteristics of a human face attached to the mail text are received, the received text data is subjected to speech synthesis processing and this synthesis processing is performed. An e-mail receiving device having a voice synthesis output unit for outputting the voice data
The sentiment expression data of the sender of the e-mail sentence is extracted by comparison with a predetermined character string determined as an emotion expression to be extracted in advance from the sentence of the received text data, and the emotion type indicated by the emotion expression data An emotion expression data extraction unit that generates emotion parameters according to
The received basic face data is changed to an expression according to the sentiment of the sender based on the generated emotion parameter, and includes a face data reproduction unit that outputs the changed face image, and
The e-mail receiving apparatus, wherein the voice synthesis output unit is configured to change intonation based on an emotion parameter supplied from the emotion expression data extraction unit when the voice synthesis process is performed.
請求項1に記載の電子メール受信装置に送信するための電子メール送信装置であって、
人物顔の表情を決定する各部位の大きさや配置位置のパラメータからなる基本顔データを生成する基本顔データ作成部を有し、この生成された基本顔データを前記テキストデータに添付して送信する構成であることを特徴とした電子メール送信装置。

An e-mail transmitting device for transmitting to the e-mail receiving device according to claim 1,
It has a basic face data creation unit that generates basic face data including parameters of size and arrangement position of each part that determines the facial expression of a human face, and transmits the generated basic face data attached to the text data. An electronic mail transmitting device characterized by having a configuration.

JP2004023428A 2004-01-30 2004-01-30 Electronic mail reception device and electronic mail transmission device Pending JP2005216087A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004023428A JP2005216087A (en) 2004-01-30 2004-01-30 Electronic mail reception device and electronic mail transmission device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004023428A JP2005216087A (en) 2004-01-30 2004-01-30 Electronic mail reception device and electronic mail transmission device

Publications (1)

Publication Number Publication Date
JP2005216087A true JP2005216087A (en) 2005-08-11

Family

ID=34906459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004023428A Pending JP2005216087A (en) 2004-01-30 2004-01-30 Electronic mail reception device and electronic mail transmission device

Country Status (1)

Country Link
JP (1) JP2005216087A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010277588A (en) * 2009-05-28 2010-12-09 Samsung Electronics Co Ltd Device for generating animation script, animation output device, receiving terminal device, transmitting terminal device, portable terminal device and method
JP2011141651A (en) * 2010-01-06 2011-07-21 Nec System Technologies Ltd Electronic mail system, electronic mail receiving device, and display method
CN111800664A (en) * 2019-09-23 2020-10-20 赵家琦 Content selection mechanism based on signal analysis

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62121564A (en) * 1985-11-22 1987-06-02 Hitachi Ltd Communication terminal equipment
JPH0766832A (en) * 1993-08-26 1995-03-10 Fujitsu Ltd Multimedia electronic mail system
JPH09138767A (en) * 1995-11-14 1997-05-27 Fujitsu Ten Ltd Communication equipment for feeling expression
JP2001034280A (en) * 1999-07-21 2001-02-09 Matsushita Electric Ind Co Ltd Electronic mail receiving device and electronic mail system
JP2002288686A (en) * 2001-03-23 2002-10-04 Minolta Co Ltd System and method for transmitting message, image data generating system, and computer program
JP2002288082A (en) * 2001-03-28 2002-10-04 Denso Corp Portable terminal and program
JP2002342234A (en) * 2001-05-17 2002-11-29 Victor Co Of Japan Ltd Display method
JP2003150528A (en) * 2001-11-12 2003-05-23 Victor Co Of Japan Ltd Message exchange system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62121564A (en) * 1985-11-22 1987-06-02 Hitachi Ltd Communication terminal equipment
JPH0766832A (en) * 1993-08-26 1995-03-10 Fujitsu Ltd Multimedia electronic mail system
JPH09138767A (en) * 1995-11-14 1997-05-27 Fujitsu Ten Ltd Communication equipment for feeling expression
JP2001034280A (en) * 1999-07-21 2001-02-09 Matsushita Electric Ind Co Ltd Electronic mail receiving device and electronic mail system
JP2002288686A (en) * 2001-03-23 2002-10-04 Minolta Co Ltd System and method for transmitting message, image data generating system, and computer program
JP2002288082A (en) * 2001-03-28 2002-10-04 Denso Corp Portable terminal and program
JP2002342234A (en) * 2001-05-17 2002-11-29 Victor Co Of Japan Ltd Display method
JP2003150528A (en) * 2001-11-12 2003-05-23 Victor Co Of Japan Ltd Message exchange system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010277588A (en) * 2009-05-28 2010-12-09 Samsung Electronics Co Ltd Device for generating animation script, animation output device, receiving terminal device, transmitting terminal device, portable terminal device and method
US9665563B2 (en) 2009-05-28 2017-05-30 Samsung Electronics Co., Ltd. Animation system and methods for generating animation based on text-based data and user information
JP2011141651A (en) * 2010-01-06 2011-07-21 Nec System Technologies Ltd Electronic mail system, electronic mail receiving device, and display method
CN111800664A (en) * 2019-09-23 2020-10-20 赵家琦 Content selection mechanism based on signal analysis

Similar Documents

Publication Publication Date Title
EP2127341B1 (en) A communication network and devices for text to speech and text to facial animation conversion
JP4266411B2 (en) Information processing apparatus and control method therefor, information transmission system, and storage medium
KR101181785B1 (en) Media process server apparatus and media process method therefor
US6975988B1 (en) Electronic mail method and system using associated audio and visual techniques
FI115868B (en) speech synthesis
JP2005115896A (en) Communication apparatus and method
JP2005078427A (en) Mobile terminal and computer software
JP2006350986A (en) Cellphone capable of transmitting/receiving mail with face photo
JP2001344613A (en) Device and method for processing picture information, and recording medium recorded with its processing
KR100453500B1 (en) Method and apparatus for mail service using three-dimensional avatar
JP2004023225A (en) Information communication apparatus, signal generating method therefor, information communication system and data communication method therefor
JP2005216087A (en) Electronic mail reception device and electronic mail transmission device
JP2005062420A (en) System, method, and program for content generation
JPH0766832A (en) Multimedia electronic mail system
JP2002342234A (en) Display method
JP2005249880A (en) Digital picture book system by portable communication terminal
JP4586063B2 (en) Terminal device
JP2004070685A (en) Electronic device and receiving and reproducing method of e-mail with portrait
JP4530016B2 (en) Information communication system and data communication method thereof
JP2002149560A (en) Device and system for e-mail
JP2006048352A (en) Communication terminal having character image display function and control method therefor
JP2004185055A (en) Electronic mail system and communication terminal
JP2006048379A (en) Content creation apparatus
JP4226210B2 (en) Speech synthesis e-mail terminal
JP2001350704A (en) Electronic device, storage medium and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090313

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090707