[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2008250902A - Electronic equipment - Google Patents

Electronic equipment Download PDF

Info

Publication number
JP2008250902A
JP2008250902A JP2007094572A JP2007094572A JP2008250902A JP 2008250902 A JP2008250902 A JP 2008250902A JP 2007094572 A JP2007094572 A JP 2007094572A JP 2007094572 A JP2007094572 A JP 2007094572A JP 2008250902 A JP2008250902 A JP 2008250902A
Authority
JP
Japan
Prior art keywords
data
animation
user
display
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007094572A
Other languages
Japanese (ja)
Inventor
Shiyunka Miyagata
春花 宮形
Yuki Hasegawa
由紀 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2007094572A priority Critical patent/JP2008250902A/en
Publication of JP2008250902A publication Critical patent/JP2008250902A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily combine and display a prepared animation and data acquired or created by a user, when customizing an image screen in a desired state. <P>SOLUTION: A package 30 of animation data 31a, 31b and 31c in a plurality of respective image screens, is preserved in a ROM or a flash ROM, and image data 32 created or acquired by the user is stored in the flash ROM, and a preset value of related information on the combination and display of the animation data and the image data, is stored in the flash ROM. The animation contents can be constituted to have many to one correspondence between one image data 32 and a plurality of animation data 31a, 31b and 31c, and when displaying the image screen, the animation contents are constituted by reading the animation data and the image data, and regenerated and displayed in a display part. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、表示部に各種情報や動作状態、操作等に関する画面を表示し、この画面をユーザの選択等により変更可能な電子機器に関する。   The present invention relates to an electronic device that displays a screen related to various information, operation states, operations, and the like on a display unit, and can change the screen by user selection or the like.

近年、例えば携帯電話機などにおいて、表示部に表示する待受画面やメニュー画面をユーザの選択等によって変更し、所望の画面にカスタマイズできるものがある。例えば、携帯電話機のメーカや通信業者、コンテンツ配信業者などが画面を用意し、ユーザが好みの画面を選択して設定することができる。例えば、特許文献1には、移動体通信機器におけるアイコン等の表示体の変更・作成等によるカスタマイズを可能とした機器が開示されている。   2. Description of the Related Art In recent years, for example, some mobile phones can change a standby screen or menu screen displayed on a display unit according to a user's selection or the like, and can customize the screen to a desired screen. For example, mobile phone manufacturers, communication companies, content distributors, etc. can prepare screens, and the user can select and set a favorite screen. For example, Patent Literature 1 discloses a device that can be customized by changing or creating a display body such as an icon in a mobile communication device.

この種の画面として、FLASH(商標)によるアニメーションシステムを用いたアニメーションを再生可能なものがある。従来の画面表示に用いられるアニメーションは、提供者が作成したアニメーションデータを予め記憶しておいたり、ネットワークからのダウンロード等によってユーザが取得したものを再生して表示する形態となっていた。ユーザが画面をカスタマイズする場合は、規定のアニメーションデータの中から好み等によって選択して再生表示するものであった。
特開2002−229705号公報
As this type of screen, there is a screen that can reproduce an animation using an animation system based on FLASH (trademark). The animation used for the conventional screen display has a form in which animation data created by a provider is stored in advance, or is obtained by a user by downloading from a network or the like. When the user customizes the screen, the user selects and reproduces the specified animation data according to his preference.
JP 2002-229705 A

前述したように、従来の電子機器の画面においてアニメーション等の表示をカスタマイズする場合は、予め用意されたものやユーザが取得したものなどの規定のデータの中から、ユーザが好み等により選択して切り替えるだけしかできなかった。例えば、提供者から用意されたアニメーション等のデータとユーザで作成または取得した画像等のデータとを組み合わせて表示するようなことはできなかった。特に、アニメーションとユーザが作成または取得した好みの画像とを組み合わせて表示することにより、所望の画面を表示可能にするようなことは不可能であった。   As described above, when customizing the display of animation or the like on the screen of a conventional electronic device, the user selects from predetermined data such as those prepared in advance or acquired by the user according to his / her preference. I could only switch. For example, it has been impossible to display a combination of data such as animation prepared by a provider and data such as an image created or acquired by a user. In particular, it has been impossible to display a desired screen by combining and displaying an animation and a favorite image created or acquired by the user.

本発明は、上記事情に鑑みてなされたもので、表示部の画面において用意されたアニメーションとユーザが取得または作成したデータとを容易に組み合わせて表示でき、ユーザの好み等に応じて画面を所望の状態にカスタマイズすることが可能な電子機器を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an animation prepared on a screen of a display unit and data acquired or created by a user can be easily combined and displayed. It is an object of the present invention to provide an electronic device that can be customized to the state.

本発明の電子機器は、当該機器に関する画面表示を行う表示部と、前記表示部において再生表示するアニメーションコンテンツに関するデータを保存する記憶部と、前記データの保存及び前記アニメーションコンテンツの再生表示を制御する制御部とを備え、前記記憶部は、前記アニメーションコンテンツを構成する一つまたは複数のアニメーションデータとこのアニメーションデータに組み合わせるユーザデータとを対応付けて記憶するもので、前記制御部は、前記アニメーションデータと前記ユーザデータとの関連情報の設定値を入力または生成して前記記憶部に記憶するデータ設定部と、前記記憶部のアニメーションデータ及びユーザデータを読み出してアニメーションコンテンツを構成し、前記表示部に再生表示させるアニメーション構成部とを有するものである。   An electronic device according to the present invention controls a display unit that displays a screen related to the device, a storage unit that stores data related to animation content to be reproduced and displayed on the display unit, and storage and data reproduction and display of the animation content. A control unit, and the storage unit stores one or a plurality of animation data constituting the animation content in association with user data to be combined with the animation data, and the control unit stores the animation data A data setting unit that inputs or generates a setting value of related information between the user data and the storage unit, and stores the animation data and user data in the storage unit to configure animation content, and the display unit Animation to be displayed Those having a structure unit.

これにより、関連情報の設定値に基づき、アニメーションデータ及びユーザデータを読み出してアニメーションコンテンツを構成することで、あらかじめ用意されたアニメーションとユーザが取得または作成した画像や音等のデータとを容易に組み合わせて表示部の画面に表示でき、ユーザの好み等に応じて画面を所望の状態にカスタマイズすることが可能となる。   As a result, animation data and user data are read out based on the set values of related information to construct animation content, so that animations prepared in advance and data such as images and sounds acquired or created by the user can be easily combined. Can be displayed on the screen of the display unit, and the screen can be customized to a desired state according to the user's preference and the like.

また、本発明は、上記の電子機器であって、前記記憶部は、予め用意されたアニメーションデータを記憶する第1の記憶部と、ユーザにより取得されたアニメーションデータ及びユーザデータを記憶する第2の記憶部とを有するものを含む。
これにより、例えば第2の記憶部の所定の場所にユーザデータを記憶しておくことで、このユーザデータを参照してアニメーションデータとともに読み出してアニメーションコンテンツを構成することが可能となる。
The present invention is the above electronic device, wherein the storage unit stores a first storage unit that stores animation data prepared in advance, and a second unit that stores animation data and user data acquired by a user. Including a storage unit.
Thus, for example, by storing user data in a predetermined location of the second storage unit, it is possible to refer to this user data and read it together with animation data to configure animation content.

また、本発明は、上記の電子機器であって、前記記憶部は、複数のアニメーションデータを含むパッケージと、このアニメーションデータのパッケージに組み合わせる1つまたは複数のユーザデータとを記憶するものを含む。
これにより、複数のアニメーションデータを含むパッケージにユーザデータを組み合わせることで、各アニメーションデータにそれぞれユーザデータを対応させて用意するような必要が無く、ユーザデータを記憶するための容量を削減でき、記憶部の記憶領域を有効活用することが可能となる。
The present invention is the above-described electronic apparatus, wherein the storage unit stores a package including a plurality of animation data and one or a plurality of user data to be combined with the animation data package.
Thus, by combining user data with a package containing a plurality of animation data, there is no need to prepare each animation data corresponding to each animation data, and the capacity for storing user data can be reduced. It is possible to effectively use the storage area of the copy.

また、本発明は、上記の電子機器であって、前記制御部は、前記関連情報の設定値として、ユーザデータの種類情報と特徴情報の少なくとも一方を含むカテゴリ情報、ユーザデータを参照するための参照情報、ユーザデータを再生する箇所を示す再生箇所設定情報のうちの少なくともいずれかを含む情報を記憶するものを含む。
これにより、カテゴリ情報、参照情報、再生箇所設定情報等を用いて、ユーザデータとアニメーションデータとを容易に組み合わせてアニメーションコンテンツを構成可能となる。
Further, the present invention is the above electronic device, wherein the control unit refers to category information including at least one of user data type information and feature information, and user data as a setting value of the related information. This includes information that stores at least one of reference information and reproduction location setting information indicating a location where user data is reproduced.
Thereby, it is possible to compose animation content by easily combining user data and animation data using category information, reference information, reproduction location setting information, and the like.

本発明によれば、表示部の画面において用意されたアニメーションとユーザが取得または作成したデータとを容易に組み合わせて表示でき、ユーザの好み等に応じて画面を所望の状態にカスタマイズすることが可能な電子機器を提供できる。   According to the present invention, the animation prepared on the screen of the display unit and the data acquired or created by the user can be easily combined and displayed, and the screen can be customized to a desired state according to the user's preference etc. Electronic devices can be provided.

以下の実施形態では、本発明に係る電子機器の一例として、携帯電話装置等の携帯端末装置に適用した構成例を示す。   In the following embodiments, a configuration example applied to a mobile terminal device such as a mobile phone device will be shown as an example of an electronic apparatus according to the present invention.

図1は本発明の実施形態に係る携帯端末装置の構成を示すブロック図である。携帯端末装置は、表示部11、キー入力部12、バイブレータ13、鳴動部14、カメラ部15、無線部16、音声変換部17、CPU18、フラッシュROM19、ROM20、RAM21を備えて構成される。   FIG. 1 is a block diagram showing a configuration of a mobile terminal device according to an embodiment of the present invention. The portable terminal device includes a display unit 11, a key input unit 12, a vibrator 13, a ringing unit 14, a camera unit 15, a radio unit 16, a voice conversion unit 17, a CPU 18, a flash ROM 19, a ROM 20, and a RAM 21.

表示部11は、液晶表示パネル等の表示デバイスを有して構成され、自装置の各種情報や操作に関する画面などを表示する際に、画像や文字、及びこれらが動画として表現されるアニメーション等を表示するものである。キー入力部12は、キースイッチ等を有して構成され、ユーザによる操作指示等を受けて操作入力を行うものである。なお、キー入力部12はタッチパネルやタッチパッド、ダイアル、スイッチ等の他の入力デバイスを用いてもよい。   The display unit 11 is configured to include a display device such as a liquid crystal display panel, and displays images, characters, and animations in which these are expressed as moving images when displaying various information and operation screens of the device. To display. The key input unit 12 includes a key switch and the like, and performs an operation input in response to an operation instruction from the user. The key input unit 12 may use another input device such as a touch panel, a touch pad, a dial, or a switch.

バイブレータ13は、着信やアラーム等のイベントを振動によりユーザに通知するものである。鳴動部14は、スピーカ等を有して構成され、着信やアラーム等のイベントの音声による通知、コンテンツの音声の再生等を行うものである。カメラ部15は、撮像レンズ、撮像素子等を有して構成され、被写体を撮像して画像データを取り込むものである。   The vibrator 13 notifies a user of an event such as an incoming call or an alarm by vibration. The ringing unit 14 is configured to have a speaker or the like, and performs notification by sound of an event such as an incoming call or an alarm, reproduction of the sound of the content, and the like. The camera unit 15 includes an imaging lens, an imaging element, and the like, and captures image data by capturing a subject.

無線部16は、無線通信機能を実現する通信回路等を有して構成され、携帯電話の音声通話、TV電話通話等の電話に関する音声や画像の通信、及び、電子メール送受信やウェブ閲覧等のネットワークを介したデータ通信などを行うものである。音声変換回路17は、鳴動部14より出力する音声データの音声信号への変換、図示しないマイクから入力される音声信号から音声データへの変換、音声データのデコード、エンコード等を行うものである。   The wireless unit 16 includes a communication circuit that implements a wireless communication function, and is used for voice and image communication related to a telephone such as a cellular phone voice call and a TV phone call, as well as for e-mail transmission and reception and web browsing. Data communication is performed via a network. The sound conversion circuit 17 performs conversion of sound data output from the sounding unit 14 into sound signals, conversion of sound signals input from a microphone (not shown) into sound data, decoding and encoding of sound data, and the like.

CPU18は、装置の各種処理を行うプロセッサにより構成され、所定のプログラムに基づき、各部の動作に関する制御等を行うものである。フラッシュROM19は、記憶したデータの書換えが可能なメモリであり、後述するアニメーションデータやユーザデータ(画像データ)、設定値、及びプログラム等を保存するものである。ROM20は、データの書換えが不可のメモリであり、予め設定された固定のアニメーションデータやユーザデータ、及びプログラム等を保存するものである。RAM21は、データの読み書きが可能なメモリであり、主にワーキングメモリとして用いられ、表示コンテンツデータの展開などを行うものである。   The CPU 18 is constituted by a processor that performs various processes of the apparatus, and performs control related to the operation of each unit based on a predetermined program. The flash ROM 19 is a memory capable of rewriting stored data, and stores animation data, user data (image data), setting values, programs, and the like, which will be described later. The ROM 20 is a memory incapable of rewriting data, and stores preset fixed animation data, user data, programs, and the like. The RAM 21 is a memory that can read and write data. The RAM 21 is mainly used as a working memory and develops display content data.

ここで、フラッシュROM19、ROM20が記憶部の機能を有し、本実施形態ではROM20が第1の記憶部、フラッシュROM19が第2の記憶部としてそれぞれ機能する。また、CPU18が制御部の機能を有し、データ設定部、アニメーション構成部の機能を実現する。   Here, the flash ROM 19 and the ROM 20 function as a storage unit. In the present embodiment, the ROM 20 functions as a first storage unit and the flash ROM 19 functions as a second storage unit. Further, the CPU 18 has a function of a control unit, and realizes functions of a data setting unit and an animation configuration unit.

次に、本実施形態の携帯端末装置の画面表示に関する動作を説明する。ここでは、本実施形態の特徴部分に係るアニメーションコンテンツの表示について述べる。   Next, an operation related to screen display of the mobile terminal device of the present embodiment will be described. Here, the display of the animation content according to the characteristic part of the present embodiment will be described.

携帯端末装置では、装置の動作状態などに応じて、表示部11の表示画面に待受画面、メニュー画面、着信画面などの画面をGUI(グラフィカル・ユーザ・インタフェース)として表示する。例えば、待受状態で何も操作していないときの待受画面、各種メニューを表示する際のメニュー画面、電話の着信があった場合の着信画面、電話の発信を行っている場合の発信画面、電子メールを受信した場合のメール受信画面、電子メールの送信を行っている場合のメール送信画面、ネットワークへ接続する際のネットワーク接続画面などをそれぞれの動作状態のときに表示する。   In the mobile terminal device, a screen such as a standby screen, a menu screen, and an incoming screen is displayed as a GUI (graphical user interface) on the display screen of the display unit 11 in accordance with the operating state of the device. For example, the standby screen when no operation is performed in the standby state, the menu screen when displaying various menus, the incoming screen when there is an incoming call, the outgoing screen when making a call A mail reception screen when an e-mail is received, a mail transmission screen when an e-mail is transmitted, a network connection screen when connecting to a network, and the like are displayed in each operation state.

このような画面において、FLASH(商標)等のアニメーションシステムを用いたアニメーションコンテンツを表示可能となっている。この種のアニメーションコンテンツは、端末のメーカ、通信業者、コンテンツプロバイダなどの提供者から提供され、ユーザが好み等によって切り替えることができるようになっている。本実施形態では、提供者から提供されるFLASH(商標)等のアニメーションシステムに準拠して記述されたアニメーションデータと、ユーザが撮影やダウンロードなどによって作成または取得した所望のユーザデータである画像データとを組み合わせてユーザの希望や好みを反映したアニメーションコンテンツを表示可能となっている。ここで、画像データとしては、カメラ部で撮影した静止画の写真画像や動画のビデオ画像、ネットワークからダウンロードした写真画像、ビデオ画像、イラスト画像など、種々の画面表示可能な画像に関するデータが含まれる。なお、ユーザデータは、画像データだけでなく、音楽等の音データなどを用いることができる。アニメーションシステムについては、FLASH(商標)以外のものについても同様に実施できるものであれば適用可能である。   On such a screen, animation content using an animation system such as FLASH (trademark) can be displayed. This type of animation content is provided by a provider such as a terminal manufacturer, a communication company, or a content provider, and can be switched by the user according to his / her preference. In the present embodiment, animation data described in accordance with an animation system such as FLASH (trademark) provided by a provider, and image data that is desired user data created or acquired by a user by shooting or downloading, and the like It is possible to display animation contents reflecting the user's wishes and preferences by combining the above. Here, the image data includes data relating to images that can be displayed on various screens, such as still image photos and video images taken by the camera unit, photo images downloaded from the network, video images, and illustration images. . As user data, not only image data but also sound data such as music can be used. Any animation system other than FLASH (trademark) can be applied as long as it can be similarly implemented.

まず、比較例として従来行われていたアニメーションコンテンツの表示動作を説明する。図2は比較例のアニメーションコンテンツの表示動作の概要を説明する図である。この比較例では、待受画面、メニュー画面、着信画面の各画面について、それぞれアニメーションデータ51a、51b、51cと画像データ52a、52b、52cとが1対1に対応して設けられ、これらの複数の画面に関するアニメーションコンテンツのデータのセットが1つのパッケージ50として構成される。このパッケージ50は、端末のメーカ等の提供者から提供されるもので、基本的には、個々のアニメーションコンテンツの内容を変更することは不可能であり、複数のパッケージの中からユーザが選択して利用する形態である。パッケージ50のアニメーションデータ及び画像データは、ROM20またはフラッシュROM19に保存されている。   First, an animation content display operation that is conventionally performed as a comparative example will be described. FIG. 2 is a diagram for explaining the outline of the display operation of the animation content of the comparative example. In this comparative example, animation data 51a, 51b, 51c and image data 52a, 52b, 52c are provided in a one-to-one correspondence with each of the standby screen, the menu screen, and the incoming call screen. A set of animation content data relating to the screen is configured as one package 50. This package 50 is provided by a provider such as a terminal manufacturer. Basically, it is impossible to change the contents of individual animation contents, and a user selects from a plurality of packages. It is a form to use. Animation data and image data of the package 50 are stored in the ROM 20 or the flash ROM 19.

この比較例において、アニメーションコンテンツを表示する際には、ROM20またはフラッシュROM19にあるアニメーションデータ及び画像データをRAM21に展開してアニメーションを生成し、RAM21から表示部11に出力して表示画面上に表示する。   In this comparative example, when displaying animation content, animation data and image data stored in the ROM 20 or the flash ROM 19 are developed in the RAM 21 to generate an animation, which is output from the RAM 21 to the display unit 11 and displayed on the display screen. To do.

仮に、上記のアニメーションコンテンツにおける画像データをユーザが変更可能にした場合、各アニメーションデータ毎に画像データを用意しなければならず、画像データの準備や設定が煩雑になり、また、データ容量も大きくなってしまう。   If the user can change the image data in the animation content, image data must be prepared for each animation data, and the preparation and setting of the image data becomes complicated, and the data capacity is large. turn into.

図3は本実施形態におけるアニメーションコンテンツの表示動作の概要を説明する図である。本実施形態では、待受画面、メニュー画面、着信画面の各画面について、それぞれアニメーションデータ31a、31b、31cが設けられ、これらの複数の画面に関するアニメーションデータのセットが1つのパッケージ30として構成される。そして、複数のアニメーションデータ31a、31b、31cに対して、1つの画像データ32が多対1で対応してアニメーションコンテンツを構成可能となっている。このパッケージ30は、端末のメーカ等の提供者から提供されるもので、ユーザが用意した画像データと組み合わせて内容を変更したアニメーションコンテンツを生成して利用可能である。アニメーションデータのパッケージ30や画像データ32は複数用いてもよい。   FIG. 3 is a diagram for explaining the outline of the display operation of animation content in this embodiment. In the present embodiment, animation data 31a, 31b, and 31c are provided for each of the standby screen, menu screen, and incoming screen, and a set of animation data relating to these multiple screens is configured as one package 30. . One piece of image data 32 can correspond to the plurality of pieces of animation data 31a, 31b, and 31c in a many-to-one manner so that animation content can be configured. The package 30 is provided by a provider such as a terminal manufacturer, and can generate and use animation contents whose contents are changed in combination with image data prepared by the user. A plurality of animation data packages 30 and image data 32 may be used.

アニメーションデータ31a、31b、31c及び画像データ32は、ROM20またはフラッシュROM19に保存されている。アニメーションデータには、メニュー画面のメニュー項目、アニメーションのキャラクタなどが含まれる。画像データには、背景に表示する画像などが含まれる。予め端末にプリセットされているアニメーションデータや画像データはROM20に保存され、ユーザが撮影したりダウンロードした画像データ、及びユーザがダウンロードしたアニメーションデータはフラッシュROM19に保存される。また、アニメーションデータと画像データとの組み合わせ、表示などに関する関連情報の設定値がフラッシュROM19に記憶される。なお、画像データは携帯端末装置の外部メモリに保存されたデータを使用することも可能である。   The animation data 31a, 31b, 31c and the image data 32 are stored in the ROM 20 or the flash ROM 19. The animation data includes menu items on the menu screen, animation characters, and the like. The image data includes an image to be displayed on the background. Animation data and image data preset in the terminal are stored in the ROM 20, and image data captured or downloaded by the user and animation data downloaded by the user are stored in the flash ROM 19. Also, set values of related information relating to the combination and display of animation data and image data are stored in the flash ROM 19. Note that data stored in the external memory of the portable terminal device can be used as the image data.

本実施形態において、アニメーションコンテンツを表示する際には、ROM20またはフラッシュROM19にあるアニメーションデータと画像データとをそれぞれ読み出し、RAM21に展開して両データを組み合わせてアニメーションを構成(再構成)し、RAM21から表示部11に出力して表示画面上に表示する。このとき、アニメーションデータと画像データとを組み合わせる際に、両データの組み合わせの形態や表示する位置などに関する関連情報の設定値に基づき、アニメーションを構成する。このように画像データを共用することで、ユーザ操作の簡略化が図れるとともに、画像データを記憶するためのメモリ容量を削減でき、データを保存するメモリの記憶領域の有効活用が可能となる。   In the present embodiment, when displaying animation content, the animation data and image data stored in the ROM 20 or the flash ROM 19 are read out respectively, developed in the RAM 21 and combined to construct (reconstruct) the animation, and the RAM 21 Is output to the display unit 11 and displayed on the display screen. At this time, when the animation data and the image data are combined, the animation is configured based on the set value of the related information regarding the combination form of both data and the display position. By sharing the image data in this way, the user operation can be simplified, the memory capacity for storing the image data can be reduced, and the storage area of the memory for storing the data can be effectively used.

図4はアニメーションコンテンツの構成イメージを模式的に示す図である。アニメーションコンテンツは、端末のメーカ等の提供者が用意したメニュー項目41、アニメーション42などの素材と、ユーザが撮影やダウンロード等で作成または取得した静止画や動画映像などの画像43とが適合する形で重ね合わせるように組み合わされ、1つのアニメーションコンテンツとして構成される。なお、アニメーションコンテンツには音楽などの他の素材を合わせて再生することも可能である。このように、ユーザが用意した画像を使用してアニメーションコンテンツを生成することで、提供者とユーザとがコラボレートして表現でき、ユーザの希望や好みを反映させたアニメーションコンテンツを実現できる。また、同じ画像をメニュー画面、待受画面等の複数の画面に適用してアニメーションコンテンツを構成することで、各画面においてデザイン等のコンセプトに統一感のある画面を表示できる。   FIG. 4 is a diagram schematically showing a configuration image of animation content. In the animation content, a form such as a menu item 41 and an animation 42 prepared by a provider such as a terminal manufacturer and a form such as a still image or a video image created or acquired by the user by shooting or downloading are compatible. Are combined so as to be superimposed on each other, and configured as one animation content. It should be noted that animation content can also be played back together with other materials such as music. In this way, by generating animation content using an image prepared by the user, the provider and the user can collaborate and express the animation content reflecting the user's wishes and preferences. Also, by applying the same image to a plurality of screens such as a menu screen and a standby screen to construct animation content, it is possible to display a screen with a sense of unity in terms of design and other concepts on each screen.

図5は表示部11に表示する画面の例を示す図である。図5において、(A)は待受画面、(B)はメニュー画面、(C)はWeb画面、発着信画面、送受信画面をそれぞれ示している。この例のように、草原と空に雲がある画像を画像データとして用いて、待受画面61a、メニュー画面62a、Web画面63、発着信画面64、メール送信画面65、メール受信画面66のように、複数の画面のアニメーションコンテンツを生成して再生する。   FIG. 5 is a diagram illustrating an example of a screen displayed on the display unit 11. 5A shows a standby screen, FIG. 5B shows a menu screen, and FIG. 5C shows a Web screen, an incoming / outgoing screen, and a transmission / reception screen. As in this example, using an image with grassland and clouds in the sky as image data, a standby screen 61a, menu screen 62a, Web screen 63, outgoing / incoming screen 64, mail transmission screen 65, mail reception screen 66, etc. In addition, a plurality of screen animation contents are generated and reproduced.

また、待受画面61a、61b、61c、メニュー画面62a、62b、62cのように、同じ画面のアニメーションコンテンツを昼、夕方、夜などの時間帯に応じて変化させて表示することも可能である。この場合、例えば時間帯によって夕方や夜などは色を変化させるフィルタをかけて画像をオレンジやダークグレーにしてもよいし、元の画像データからそれぞれの画像を生成してもよい。   In addition, like the standby screens 61a, 61b, 61c, and the menu screens 62a, 62b, 62c, it is also possible to display the animation content on the same screen while changing it according to time zones such as daytime, evening, and night. . In this case, for example, the image may be changed to orange or dark gray by applying a filter that changes the color in the evening or at night, or each image may be generated from the original image data.

本実施形態では、ユーザが撮影またはダウンロードして得た画像や映像、録音やダウンロードによって得た音楽などのユーザデータを、フラッシュROM内のデータフォルダなどの設定値で指定した場所にアニメーションデータと関連付けて保存しておく。これにより、再生時に設定値に応じてアニメーションデータ及びユーザデータが読み込まれ、画面上でリアルタイムにアニメーションコンテンツが構成されて再生表示される。ここで、提供者側で用意されたアニメーションデータの素材と、ユーザが取得したユーザデータとがうまく合うように、例えば撮影時などのユーザデータ準備時に、サンプル再生やプレビュー、フレーム、スキンなどを用いることで、アニメーションコンテンツの構成を確認できるようにする。これによって、ユーザが特に意識したり煩雑な操作をすることなく、容易にユーザデータを準備、設定できる。   In this embodiment, user data such as images and videos obtained by shooting or downloading by a user, music obtained by recording or downloading, and the like are associated with animation data at a location specified by a setting value such as a data folder in the flash ROM. Save it. As a result, animation data and user data are read according to the set value during reproduction, and animation content is constructed and reproduced and displayed in real time on the screen. Here, sample playback, preview, frame, skin, etc. are used at the time of user data preparation such as shooting, so that the animation data material prepared on the provider side and the user data acquired by the user match well. This makes it possible to confirm the structure of animation content. Thus, user data can be easily prepared and set without requiring the user to be particularly aware or perform complicated operations.

例えば携帯端末装置では、筐体の開閉時、別画面への遷移時、指定時間時、他のイベント発生時など、各画面においてユーザデータを組み合わせたアニメーションコンテンツを実現できるようになり、一貫した形態でGUI全体を統合コーディネートすることも可能である。また、各画面でランダムにユーザデータを切り替えて構成内容を変化させ、バリエーション展開させることも可能である。提供されるアニメーションデータとユーザデータとを融合させることで、ユーザにとって新しい描画スタイルを実現できる。例えば、子供などの顔をフレームを見ながら撮影し、この撮影画像に合わせてアニメーションを重ねて表示したりすることが可能となる。同一のユーザデータを複数の画面のアニメーションデータと組み合わせて用いることで、他の画面においてアニメーションを構成する際にも雰囲気を統一できる。また、ユーザデータを切り替えることで、即時に複数画面のアニメーションの構成を一括して変更できる。   For example, in mobile terminal devices, it is possible to realize animation content that combines user data on each screen, such as when the case opens and closes, when transitioning to another screen, at a specified time, when other events occur, and so on. It is also possible to coordinate the entire GUI. It is also possible to change the configuration contents by randomly switching user data on each screen to develop variations. A new drawing style can be realized for the user by fusing the provided animation data and user data. For example, a face of a child or the like can be photographed while looking at the frame, and an animation can be displayed superimposed on the photographed image. By using the same user data in combination with animation data of a plurality of screens, it is possible to unify the atmosphere when constructing animations on other screens. Also, by switching user data, it is possible to immediately change the configuration of animations on a plurality of screens at once.

アニメーションコンテンツの構成例としては、画面上で再生されるアニメーションデータにスクリプトを書き込み、指定の場所からユーザデータを読み込むようにする。指定したユーザデータをランダムに用いるようにする場合、1ファイルのデータを1パターンとし、例えば画像データを4ファイル分指定場所に保存しておけば、画面の表示の度にアニメーションとともに4つの画像がランダムに読み出されて表示され、合成されたアニメーションが再生される。全ての画面をテーマ設定などで一括連動変更する場合は、指定場所のユーザデータを変更することにより、統一した雰囲気でコラボレートしたアニメーションコンテンツを構成できる。   As a configuration example of animation content, a script is written in animation data reproduced on the screen, and user data is read from a specified location. If the specified user data is used randomly, the data of one file is set as one pattern. For example, if image data is stored in a designated place for four files, four images are displayed together with the animation every time the screen is displayed. Randomly read out and displayed, the synthesized animation is played back. When changing all screens at once by theme setting, etc., it is possible to configure animated content that collaborates in a unified atmosphere by changing user data at specified locations.

次に、本実施形態における表示部でのアニメーションコンテンツの再生動作の具体的な動作を説明する。本実施形態の携帯端末装置の動作は、CPU18において所定の動作プログラムを実行することにより、該当する処理がなされて制御対象の各部とともに動作が実行される。   Next, a specific operation of reproducing the animation content on the display unit in the present embodiment will be described. The operation of the mobile terminal device according to the present embodiment is performed by executing a predetermined operation program in the CPU 18 and performing the corresponding processing, together with each part to be controlled.

図6は画像データ取得処理の手順を示すフローチャートである。ここでは、カメラ部15で撮像して画像データを取得する場合を説明する。まず、CPU18はカメラ部15を起動し、撮影可能な状態にする(ステップS11)。ユーザが表示部11のモニタ画面を確認し、被写体の構図を決定してキー入力部12のシャッタボタンを操作すると、被写体が撮像されて静止画の画像データが出力され、フラッシュROM19に格納される。なお、動画の画像データを撮影する場合もほぼ同様であり、ユーザがモニタ画面を確認しながらビデオ撮影の開始と終了を操作指示する。このとき、CPU18はプレビュー設定の有無を確認し(ステップS12)、プレビュー設定がある場合は、表示部11のモニタ画面のカメラ画像において、画像データと組み合わせるアニメーションデータにより表示される画像を重ねて表示する(ステップS13)。このアニメーションデータは静止状態でも動作状態でも構わない。これにより、ユーザは、カメラで撮影される画像データをアニメーションと組み合わせたときの表示状態を確認しながら、撮影を行うことができる。このようにして、画像データを取得してメモリに格納する。   FIG. 6 is a flowchart showing the procedure of the image data acquisition process. Here, a case where image data is acquired by capturing with the camera unit 15 will be described. First, the CPU 18 activates the camera unit 15 to make it ready for photographing (step S11). When the user confirms the monitor screen of the display unit 11, determines the composition of the subject and operates the shutter button of the key input unit 12, the subject is imaged and image data of a still image is output and stored in the flash ROM 19. . Note that the same applies to the case of shooting moving image data, and the user instructs the start and end of video shooting while checking the monitor screen. At this time, the CPU 18 confirms the presence / absence of the preview setting (step S12). If there is a preview setting, the camera image on the monitor screen of the display unit 11 displays the image displayed by the animation data combined with the image data in an overlapping manner. (Step S13). This animation data may be stationary or operating. Thus, the user can take a picture while confirming the display state when the image data taken by the camera is combined with the animation. In this way, image data is acquired and stored in the memory.

図7は画像データのファイルカテゴリをユーザが設定する場合のカテゴリ設定処理の手順を示すフローチャートである。CPU18は、図6の処理のカメラ撮影、またはダウンロード等によって取得され、ユーザが選択した画像データをフラッシュROM19に格納する(ステップS21)。そして、ユーザからのファイルカテゴリ設定入力受付状態に入り、ファイルカテゴリ設定画面を表示部の画面に表示する(ステップS22)。ここで、ファイルカテゴリとは、画像データのファイルにタグ情報などによって付加するカテゴリ情報であり、画像の種類情報(人物、景色など)や特徴情報(境界など)を含むものである。このファイルカテゴリはアニメーションデータとユーザデータとを関連付ける関連情報の設定値の一例に相当する。具体的には、画像の種類、画像取得時(撮影時)の時間(12時、昼)や場所(日本、東京)、画像中の色情報(赤、青)、顔認証結果による人物や顔、目、鼻などの特徴(特定の人物など)や位置(画像中の座標)、画像の境界や画像中の要素の境界(人物や地面の境界など)、画像への付加テキストなどが含まれる。   FIG. 7 is a flowchart showing the procedure of category setting processing when the user sets the file category of image data. The CPU 18 stores the image data selected by the user in the process of FIG. 6 by camera shooting or download and stored in the flash ROM 19 (step S21). Then, the file category setting input acceptance state from the user is entered, and the file category setting screen is displayed on the screen of the display unit (step S22). Here, the file category is category information added to the image data file by tag information or the like, and includes image type information (person, landscape, etc.) and feature information (border, etc.). This file category corresponds to an example of a setting value of related information that associates animation data with user data. Specifically, the type of image, time (12 o'clock, noon) at the time of image acquisition (at the time of shooting), location (Tokyo, Japan), color information in the image (red, blue), person and face based on face authentication results , Features such as eyes and nose (such as a specific person) and position (coordinates in the image), image boundaries and element boundaries (such as person and ground boundaries), and additional text to the image .

そして、CPU18はファイルカテゴリの設定値の有無を判定し(ステップS23)、設定値が無い場合はファイルカテゴリの設定を行わずに処理を終了する(ステップS24)。ステップS23で設定値がある場合は、フラッシュROM19内のファイルカテゴリの領域に入力された設定値を入力し、フラッシュROM19に格納する(ステップS25)。ファイルカテゴリの設定値の入力は、ユーザのキー操作により手入力で行ってもよいし、入力項目を提示した入力ボックスを表示してユーザが選択するようにしてもよい。このようにして、ユーザが画像データについて所望のファイルカテゴリを設定する。   Then, the CPU 18 determines the presence / absence of a setting value for the file category (step S23). If there is no setting value, the CPU 18 ends the process without setting the file category (step S24). If there is a set value in step S23, the set value input in the file category area in the flash ROM 19 is input and stored in the flash ROM 19 (step S25). The setting value of the file category may be input manually by a user's key operation, or may be selected by the user by displaying an input box presenting input items. In this way, the user sets a desired file category for the image data.

図8は画像データのファイルカテゴリを端末が自動設定する場合のカテゴリ設定処理の手順を示すフローチャートである。CPU18は、図6の処理のカメラ撮影、またはダウンロードによって画像データが取得され入力されると、この画像データを取り込み、フラッシュROM19に格納する(ステップS31)。そして、取得した画像データを参照してファイルカテゴリを判別する(ステップS32)。ここで、画像データに対して顔認証を行い、認証結果が得られた場合は、その認証結果による情報をカテゴリ設定値に代入し、フラッシュROM19に格納する(ステップS33)。また、GPSによる測位や時間計測によって画像データ取得時などの場所や時間が得られた場合は、その場所や時間の情報をカテゴリ設定値に代入し、フラッシュROM19に格納する(ステップS34)。一方、認証不可だった場合は、ファイルカテゴリを設定せずに処理を終了する(ステップS35)。なお、図7の場合と同様に、画像データに画像全体や画像内の要素などの境界データをファイルカテゴリとして設定してもよい。このようにして、端末側で画像データの解析などによって適合するファイルカテゴリを設定する。   FIG. 8 is a flowchart showing the procedure of category setting processing when the terminal automatically sets the file category of image data. When the image data is acquired and inputted by the camera photographing or downloading of the process of FIG. 6, the CPU 18 takes in the image data and stores it in the flash ROM 19 (step S31). Then, the file category is determined with reference to the acquired image data (step S32). Here, when face authentication is performed on the image data and an authentication result is obtained, information based on the authentication result is substituted into the category setting value and stored in the flash ROM 19 (step S33). If a location or time such as when image data is acquired is obtained by GPS positioning or time measurement, the location and time information is substituted into the category setting value and stored in the flash ROM 19 (step S34). On the other hand, if the authentication is not possible, the process ends without setting the file category (step S35). As in the case of FIG. 7, boundary data such as the entire image or elements in the image may be set as the file category in the image data. In this way, a suitable file category is set by analyzing image data on the terminal side.

図9は画像データに対する参照データの設定をユーザが行う場合の参照データ設定処理の手順を示すフローチャートである。CPU18は、まず取得した画像データに対する参照データのデフォルト設定を行う(ステップS41)。ここで、参照データとは、アニメーションデータが参照する画像データのことであり、参照データとして設定して関連付けることで、アニメーションデータと画像データとを組み合わせることができる。デフォルト設定では、アニメーションデータにあらかじめ指定されている画像データや、あらかじめ指定されているフォルダに保存されている画像データなどを参照データとして設定する。   FIG. 9 is a flowchart showing the procedure of reference data setting processing when the user sets reference data for image data. First, the CPU 18 performs default setting of reference data for the acquired image data (step S41). Here, the reference data is image data referred to by the animation data, and the animation data and the image data can be combined by setting and associating as reference data. In the default setting, image data specified in advance for animation data, image data saved in a folder specified in advance, or the like is set as reference data.

次に、CPU18は、参照データを指定するユーザからの指定入力受付状態に入る(ステップS42)。そして、参照データの設定がフォルダ指定かどうかを判断し(ステップS43)、フォルダ指定ではなくて単独のデータファイルの指定である場合は、指定されたファイルに対応する画像データを参照データに設定し、設定情報をフラッシュROM19に格納する(ステップS44)。参照データに設定する画像データは1つでもよいし、2つ以上でもよい。一方、参照データの設定がフォルダ指定である場合は、指定されたフォルダ内のファイルに対応する画像データを参照データに設定する(ステップS45)。この場合、フォルダ内の画像データがランダムに使用される。ステップS44、S45で参照データの指定が終了した後、CPU18は、参照データに指定された画像データの縦、横のサイズを読み込み、フラッシュROM19の設定情報に格納する(ステップS46)。この参照データの指定に関する参照情報はアニメーションデータとユーザデータとを関連付ける関連情報の設定値の一例に相当する。このようにして、ユーザが所望の画像データをアニメーションデータに組み合わせる参照データとして設定する。   Next, the CPU 18 enters a designation input acceptance state from a user who designates reference data (step S42). Then, it is determined whether or not the reference data setting is a folder specification (step S43), and if it is not a folder specification but a single data file specification, image data corresponding to the specified file is set as reference data. The setting information is stored in the flash ROM 19 (step S44). One or more image data may be set as the reference data. On the other hand, if the reference data setting is folder designation, the image data corresponding to the file in the designated folder is set as reference data (step S45). In this case, the image data in the folder is used at random. After completing the designation of the reference data in steps S44 and S45, the CPU 18 reads the vertical and horizontal sizes of the image data designated as the reference data and stores them in the setting information of the flash ROM 19 (step S46). The reference information related to the designation of the reference data corresponds to an example of a setting value of related information that associates animation data with user data. In this way, the user sets desired image data as reference data to be combined with animation data.

図10は画像データに対する参照データの設定を端末が自動設定する場合の参照データ設定処理の手順を示すフローチャートである。CPU18は、まず取得した画像データに対する参照データのデフォルト設定を行う(ステップS51)。デフォルト設定では、アニメーションデータにあらかじめ指定されている画像データや、あらかじめ指定されているフォルダに保存されている画像データなどを参照データとして設定する。次いで、保存してあるアニメーションデータのカテゴリと画像データのファイルカテゴリとが一致するか否かを判断し(ステップS52)、カテゴリが一致した場合はそのファイルの画像データを参照データに設定し、設定情報をフラッシュROM19に格納する(ステップS53)。参照データに設定する画像データは1つでもよいし、2つ以上でもよい。その後、CPU18は、参照データに指定された画像データの縦、横のサイズを読み込み、フラッシュROM19の設定情報に格納する(ステップS54)。このようにして、端末側でファイルカテゴリの一致によって適合する画像データをアニメーションデータに組み合わせる参照データとして設定する。   FIG. 10 is a flowchart showing the procedure of reference data setting processing when the terminal automatically sets reference data for image data. First, the CPU 18 performs default setting of reference data for the acquired image data (step S51). In the default setting, image data specified in advance for animation data, image data saved in a folder specified in advance, or the like is set as reference data. Next, it is determined whether or not the category of the stored animation data matches the file category of the image data (step S52). If the categories match, the image data of the file is set as reference data and set. Information is stored in the flash ROM 19 (step S53). One or more image data may be set as the reference data. Thereafter, the CPU 18 reads the vertical and horizontal sizes of the image data designated as the reference data and stores them in the setting information of the flash ROM 19 (step S54). In this way, image data that matches the file category on the terminal side is set as reference data to be combined with animation data.

図11はアニメーションデータにおける参照データの表示箇所を設定する表示箇所設定処理の手順を示すフローチャートである。CPU18は、対象のアニメーションデータについて、画像データを表示するそれぞれの表示箇所の設定を開始する(ステップS61)。まず、CPU18は、アニメーションデータの全ての表示箇所が決定済みであるかを判断し(ステップS62)、決定済みである場合は処理を終了する。表示箇所の決定が完了していない場合は、参照データとアニメーションデータで指定された表示箇所の縦横サイズが一致するかを判断する(ステップS63)。縦横サイズが一致する場合は、参照データの表示開始座標に(0,0)を代入してフラッシュROM19に格納し(ステップS64)、処理を終了する。   FIG. 11 is a flowchart showing the procedure of the display location setting process for setting the display location of the reference data in the animation data. CPU18 starts the setting of each display location which displays image data about target animation data (step S61). First, the CPU 18 determines whether all display locations of animation data have been determined (step S62), and if determined, ends the processing. If the determination of the display location has not been completed, it is determined whether the vertical and horizontal sizes of the display location specified by the reference data and the animation data match (step S63). If the vertical and horizontal sizes match, (0, 0) is substituted into the display start coordinates of the reference data and stored in the flash ROM 19 (step S64), and the process ends.

また、参照データの縦横サイズが一致しない場合は、画像データの表示サイズや表示領域のユーザ設定があるかどうかを判断する(ステップS65)。ユーザ設定がある場合は、参照データの表示開始座標にユーザ設定値を代入してフラッシュROM19に格納し(ステップS66)、処理を終了する。また、参照データのユーザ設定がない場合は、アニメーションデータに推奨表示箇所設定があるかどうかを判断する(ステップS67)。推奨表示箇所設定としては、画像データの顔位置や境界線などが用いられる。推奨表示箇所設定がある場合は、参照データの表示開始座標にアニメーションデータの推奨表示箇所を代入してフラッシュROM19に格納し(ステップS68)、処理を終了する。   If the vertical and horizontal sizes of the reference data do not match, it is determined whether there is a user setting for the display size of the image data or the display area (step S65). If there is a user setting, the user setting value is substituted into the display start coordinates of the reference data and stored in the flash ROM 19 (step S66), and the process ends. If there is no user setting for the reference data, it is determined whether there is a recommended display location setting in the animation data (step S67). As the recommended display location setting, a face position or a boundary line of image data is used. If there is a recommended display location setting, the recommended display location of the animation data is substituted into the display start coordinates of the reference data and stored in the flash ROM 19 (step S68), and the process is terminated.

そして、CPU18は、上記いずれの判断もNOの場合、アニメーションデータの表示縦横サイズに合わせて参照データをリサイズし、サイズ修正後の参照データの原点等の座標を表示開始座標に代入してその設定情報及びリサイズした参照データをフラッシュROM19に格納する(ステップS69)。以上で表示箇所の設定を完了し(ステップS70)、処理を終了する。この表示箇所設定情報などの再生箇所設定情報は、アニメーションデータとユーザデータとを関連付ける関連情報の設定値の一例に相当する。このようにして、アニメーションデータのそれぞれの表示箇所に対して、該当する参照データの座標を設定する。なお、アニメーションデータにおいて、アニメーションの開始位置の設定を手動または自動で行うことも可能である。   If any of the above determinations is NO, the CPU 18 resizes the reference data in accordance with the display vertical / horizontal size of the animation data, substitutes coordinates such as the origin of the reference data after the size correction into the display start coordinates, and sets the reference data. Information and the resized reference data are stored in the flash ROM 19 (step S69). Thus, the setting of the display location is completed (step S70), and the process ends. The reproduction location setting information such as the display location setting information corresponds to an example of a setting value of related information that associates animation data with user data. In this way, the coordinates of the corresponding reference data are set for each display location of the animation data. In the animation data, the setting of the animation start position can be performed manually or automatically.

図12はアニメーションコンテンツの表示処理の手順を示すフローチャートである。まず、CPU18は、ユーザからの操作入力受付状態に入る(ステップS71)。ここでは、端末の動作モードの切り替え、通話等の動作の開始や終了、メニュー表示などの操作入力を検出する。なお、ユーザの操作入力に限らず、通話の着信や電子メールの受信などのイベントを検出した場合も同様に本処理を実行する。   FIG. 12 is a flowchart showing the procedure of the animation content display process. First, the CPU 18 enters an operation input acceptance state from the user (step S71). Here, operation inputs such as switching of the operation mode of the terminal, start and end of an operation such as a call, and menu display are detected. Note that this processing is executed in the same manner when an event such as an incoming call or an e-mail is detected, not limited to a user operation input.

そして、CPU18は、アニメーションコンテンツを表示する状態かどうかを判断し(ステップS72)、表示する状態でない場合は処理を終了する。一方、表示する状態であるときは、状態に対応するアニメーションコンテンツのアニメーションデータ及び参照データ(画像データ)をフラッシュROM19から読み込み、RAM21に展開してアニメーションを構成する。そして、アニメーションデータに設定された表示開始座標から参照データを読み込み、アニメーションデータとともに表示部11の表示画面にアニメーションとして表示する(ステップS73)。   Then, the CPU 18 determines whether or not the animation content is to be displayed (step S72), and if not, the process is terminated. On the other hand, when it is in the display state, the animation data and reference data (image data) of the animation content corresponding to the state are read from the flash ROM 19 and developed in the RAM 21 to form an animation. Then, the reference data is read from the display start coordinates set in the animation data, and displayed as an animation on the display screen of the display unit 11 together with the animation data (step S73).

このとき、アニメーションコンテンツにおいてスケジュール、アラーム、プロフィール等の連動設定があるかどうかを判断し(ステップS74)、連動設定がない場合は処理を終了する。一方、連動設定がある場合は、表示しているアニメーションに連動するスケジュール内容、アラーム内容、プロフィール内容などの文字や画像をアニメーションとともに表示部11の表示画面に表示する。   At this time, it is determined whether or not the animation content has linked settings such as a schedule, an alarm, and a profile (step S74). If there is no linked settings, the process ends. On the other hand, when there is a linkage setting, characters and images such as schedule contents, alarm contents, and profile contents linked to the displayed animation are displayed on the display screen of the display unit 11 together with the animation.

アニメーションコンテンツを再生して表示部11に表示する際には、上記のように設定した表示開始座標に画像データを表示したり、ファイルカテゴリなどで設定した画像データにおける境界にアニメーションのキャラクタを表示して動かすことなどが行われる。これにより、アニメーション内の所定位置にユーザが用意した画像を表示したり、ユーザが用意した画像内の境界(人物や顔の輪郭、建物や地面等の境界など)にアニメーションを表示するようなことが可能である。   When the animation content is reproduced and displayed on the display unit 11, the image data is displayed at the display start coordinates set as described above, or the animation character is displayed at the boundary in the image data set by the file category or the like. And moving. As a result, an image prepared by the user is displayed at a predetermined position in the animation, or an animation is displayed on a boundary (such as a boundary of a person or a face, a boundary of a building or the ground) in the image prepared by the user. Is possible.

また、アニメーションデータにアルファベット等の文字データを持たせておき、電話の着信時等にユーザが登録している電話帳の名前等の登録情報と連動させ、アニメーションデータ内の文字をユーザの登録情報によって組み替えて表示させることも可能である。   Moreover, character data such as alphabets is included in the animation data and linked with registration information such as the name of the phone book registered by the user when a call is received, and the characters in the animation data are registered with the user registration information. It is also possible to rearrange and display them.

また、アニメーションコンテンツの再生表示時に、文字データや音データを同時に再生することも可能である。この場合、文字データや音データはROMまたはフラッシュROMに保存し、カテゴリ等によってアニメーションデータと関連付けるようにする。文字データや音データは、予め用意されているものはROMに、ユーザがダウンロードして取得したり入力して作成したものはフラッシュROMに保存すればよい。カテゴリ等の設定は、文字や音の内容や属性に応じて自動的に設定してもよいし、ユーザが手動で入力して設定してもよい。   It is also possible to simultaneously reproduce character data and sound data when reproducing and displaying animation content. In this case, the character data and sound data are stored in the ROM or flash ROM, and associated with the animation data according to the category or the like. Character data and sound data prepared in advance may be stored in the ROM, and data downloaded and acquired or input by the user may be stored in the flash ROM. The category or the like may be set automatically according to the contents and attributes of characters and sounds, or may be set manually by the user.

上述したように、本実施形態によれば、端末のメーカ、通信業者、コンテンツプロバイダなどの提供者から提供されたアニメーションデータと、ユーザが取得または作成した画像や音等のユーザデータとを容易に組み合わせて表示でき、ユーザの好み等に応じて画面を所望の状態にカスタマイズすることができる。また、複数のアニメーションデータに対応させて1つの画像データ等のユーザデータを共用してアニメーションコンテンツを構成することで、予め用意されたアニメーションデータを記憶するROMの容量やユーザデータを記憶するためのフラッシュROMの容量を削減でき、他のデータ用に記憶領域を利用できるので、メモリの記憶領域を有効活用できる。   As described above, according to the present embodiment, animation data provided by a provider such as a terminal manufacturer, a communication company, or a content provider and user data such as images and sounds acquired or created by the user can be easily obtained. They can be displayed in combination, and the screen can be customized to a desired state according to the user's preference and the like. In addition, by sharing user data such as one image data corresponding to a plurality of animation data and configuring animation content, a ROM capacity for storing animation data prepared beforehand and user data can be stored. Since the capacity of the flash ROM can be reduced and the storage area can be used for other data, the memory storage area can be used effectively.

また、ユーザは所定の場所に取得した所望のユーザデータを格納するだけで、端末側で自動的にカテゴリ情報を設定してアニメーションデータとの関連付けを行うこともできるし、ユーザデータの保存及び設定時にプレビューやフレームを用意することで、その場で容易に再生イメージを確認しながら操作することができる。したがって、アニメーションコンテンツをカスタマイズする際に煩雑な操作が不要であり、操作量の軽減や操作性の向上を図れる。また、ユーザが用意したデータと提供されたアニメーションデータとを自由に組み合わせることで、リアルタイムのコラボレーションが可能であり、画面デザイン等のトータルコーディネートも容易に実現可能になる。   In addition, the user can automatically set category information on the terminal side and associate it with animation data simply by storing desired user data acquired in a predetermined place, and save and set user data. Occasionally, previews and frames are prepared so that the user can easily operate while confirming the playback image on the spot. Therefore, no complicated operation is required when customizing the animation content, and the amount of operation can be reduced and the operability can be improved. In addition, by freely combining user-provided data and provided animation data, real-time collaboration is possible and total coordination such as screen design can be easily realized.

なお、本発明は上記の実施形態において示されたものに限定されるものではなく、明細書の記載、並びに周知の技術に基づいて、当業者が変更、応用することも本発明の予定するところであり、保護を求める範囲に含まれる。   It should be noted that the present invention is not limited to those shown in the above-described embodiments, and those skilled in the art can also make changes and applications based on the description in the specification and well-known techniques. Yes, included in the scope of protection.

本発明に係る電子機器としては、携帯電話装置、携帯情報端末、携帯型オーディオプレイヤ、携帯型ビデオプレイヤ(DVDプレイヤ)、デジタルカメラ、ビデオカメラ、ノート型PC等の携帯端末装置、及び、テレビ、ファクシミリ、固定電話機、パーソナルコンピュータ、各種通信端末、家電機器など、表示部に各種情報や動作状態、操作等に関する画面を表示するものであれば、種々のものに適用可能である。   Examples of the electronic apparatus according to the present invention include a mobile phone device, a portable information terminal, a portable audio player, a portable video player (DVD player), a portable terminal device such as a digital camera, a video camera, and a notebook PC, a television, The present invention can be applied to various types of devices such as facsimiles, fixed telephones, personal computers, various communication terminals, home appliances, and the like that display various information, operation states, operations, and the like on the display unit.

本発明は、表示部の画面において用意されたアニメーションとユーザが取得または作成したデータとを容易に組み合わせて表示でき、ユーザの好み等に応じて画面を所望の状態にカスタマイズすることが可能となる効果を有し、表示部に各種情報や動作状態、操作等に関する画面を表示し、この画面をユーザの選択等により変更可能な電子機器等として有用である。   The present invention can easily display the animation prepared on the screen of the display unit and the data acquired or created by the user, and can customize the screen to a desired state according to the user's preference or the like. This is useful as an electronic device or the like that has an effect, displays a screen related to various information, operation states, operations, and the like on the display unit and can change the screen by user selection or the like.

本発明の実施形態に係る携帯端末装置の構成を示すブロック図The block diagram which shows the structure of the portable terminal device which concerns on embodiment of this invention 比較例のアニメーションコンテンツの表示動作の概要を説明する図The figure explaining the outline | summary of the display operation | movement of the animation content of a comparative example 本実施形態におけるアニメーションコンテンツの表示動作の概要を説明する図The figure explaining the outline | summary of the display operation | movement of the animation content in this embodiment 本実施形態におけるアニメーションコンテンツの構成イメージを模式的に示す図The figure which shows typically the structure image of the animation content in this embodiment 本実施形態の表示部に表示する画面の例を示す図The figure which shows the example of the screen displayed on the display part of this embodiment 本実施形態における画像データ取得処理の手順を示すフローチャートThe flowchart which shows the procedure of the image data acquisition process in this embodiment 本実施形態において画像データのファイルカテゴリをユーザが設定する場合のカテゴリ設定処理の手順を示すフローチャートThe flowchart which shows the procedure of the category setting process in case a user sets the file category of image data in this embodiment. 本実施形態において画像データのファイルカテゴリを端末が自動設定する場合のカテゴリ設定処理の手順を示すフローチャートThe flowchart which shows the procedure of the category setting process in case a terminal sets the file category of image data automatically in this embodiment. 本実施形態において画像データに対する参照データの設定をユーザが行う場合の参照データ設定処理の手順を示すフローチャートA flowchart showing a procedure of reference data setting processing when a user sets reference data for image data in the present embodiment. 本実施形態において画像データに対する参照データの設定を端末が自動設定する場合の参照データ設定処理の手順を示すフローチャートThe flowchart which shows the procedure of the reference data setting process in case a terminal sets the setting of the reference data with respect to image data automatically in this embodiment. 本実施形態においてアニメーションデータにおける参照データの表示箇所を設定する表示箇所設定処理の手順を示すフローチャートThe flowchart which shows the procedure of the display location setting process which sets the display location of the reference data in animation data in this embodiment. 本実施形態におけるアニメーションコンテンツの表示処理の手順を示すフローチャートThe flowchart which shows the procedure of the display process of the animation content in this embodiment

符号の説明Explanation of symbols

11 表示部
12 キー入力部
15 カメラ部
16 無線部
18 CPU
19 フラッシュROM
20 ROM
21 RAM
30 パッケージ
31a、31b、31c アニメーションデータ
32 画像データ
41 メニュー項目
42 アニメーション
43 画像
11 Display Unit 12 Key Input Unit 15 Camera Unit 16 Radio Unit 18 CPU
19 Flash ROM
20 ROM
21 RAM
30 Package 31a, 31b, 31c Animation data 32 Image data 41 Menu item 42 Animation 43 Image

Claims (4)

当該機器に関する画面表示を行う表示部と、
前記表示部において再生表示するアニメーションコンテンツに関するデータを保存する記憶部と、
前記データの保存及び前記アニメーションコンテンツの再生表示を制御する制御部とを備え、
前記記憶部は、前記アニメーションコンテンツを構成する一つまたは複数のアニメーションデータとこのアニメーションデータに組み合わせるユーザデータとを対応付けて記憶するもので、
前記制御部は、前記アニメーションデータと前記ユーザデータとの関連情報の設定値を入力または生成して前記記憶部に記憶するデータ設定部と、前記記憶部のアニメーションデータ及びユーザデータを読み出してアニメーションコンテンツを構成し、前記表示部に再生表示させるアニメーション構成部とを有する電子機器。
A display unit for displaying a screen related to the device;
A storage unit for storing data relating to animation content to be reproduced and displayed on the display unit;
A controller that controls storage of the data and reproduction display of the animation content,
The storage unit stores one or more animation data constituting the animation content in association with user data to be combined with the animation data,
The control unit inputs or generates a setting value of related information between the animation data and the user data and stores it in the storage unit, and reads out the animation data and user data in the storage unit to display animation content And an animation composing unit that reproduces and displays on the display unit.
請求項1に記載の電子機器であって、
前記記憶部は、予め用意されたアニメーションデータを記憶する第1の記憶部と、ユーザにより取得されたアニメーションデータ及びユーザデータを記憶する第2の記憶部とを有する電子機器。
The electronic device according to claim 1,
The storage unit is an electronic device having a first storage unit that stores animation data prepared in advance, and a second storage unit that stores animation data and user data acquired by a user.
請求項1に記載の電子機器であって、
前記記憶部は、複数のアニメーションデータを含むパッケージと、このアニメーションデータのパッケージに組み合わせる1つまたは複数のユーザデータとを記憶する電子機器。
The electronic device according to claim 1,
The storage unit is an electronic device that stores a package including a plurality of animation data and one or a plurality of user data to be combined with the animation data package.
請求項1に記載の電子機器であって、
前記制御部は、前記関連情報の設定値として、ユーザデータの種類情報と特徴情報の少なくとも一方を含むカテゴリ情報、ユーザデータを参照するための参照情報、ユーザデータを再生する箇所を示す再生箇所設定情報のうちの少なくともいずれかを含む情報を記憶する電子機器。
The electronic device according to claim 1,
The control unit, as the setting value of the related information, category information including at least one of user data type information and feature information, reference information for referring to user data, and playback location setting indicating a location where user data is played back An electronic device that stores information including at least one of information.
JP2007094572A 2007-03-30 2007-03-30 Electronic equipment Withdrawn JP2008250902A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007094572A JP2008250902A (en) 2007-03-30 2007-03-30 Electronic equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007094572A JP2008250902A (en) 2007-03-30 2007-03-30 Electronic equipment

Publications (1)

Publication Number Publication Date
JP2008250902A true JP2008250902A (en) 2008-10-16

Family

ID=39975726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007094572A Withdrawn JP2008250902A (en) 2007-03-30 2007-03-30 Electronic equipment

Country Status (1)

Country Link
JP (1) JP2008250902A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011015204A (en) * 2009-07-02 2011-01-20 Nec Casio Mobile Communications Ltd Terminal device, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011015204A (en) * 2009-07-02 2011-01-20 Nec Casio Mobile Communications Ltd Terminal device, and program

Similar Documents

Publication Publication Date Title
KR100597667B1 (en) mobile communication terminal with improved user interface
KR100726258B1 (en) Method for producing digital images using photographic files and phonetic files in a mobile device
JP2004336711A (en) Imaging apparatus with communication function, image data storage method and program
JP2009141489A (en) Electronic equipment
CN103842936A (en) Recording, editing and merging multiple live video clips and still photographs into a finished composite work
JP2004194293A (en) Mobile wireless terminal, photographed image editing device, and photographed image editing method
JP2003050703A (en) Portable communications equipment, portable electronic equipment and method for control operation of them
JP4557203B2 (en) Information providing method, information providing server device, information communication system, mobile phone terminal device, and control program
JP2006121449A (en) Portable terminal device and program
KR100608787B1 (en) Background image download method of the mobile communication terminal and method for photographing combination photo uses the background image
JP4932368B2 (en) Portable terminal device and program
JP2008250902A (en) Electronic equipment
KR101285382B1 (en) A device having function editting of image and Method thereof
JP2008083362A (en) Mobile communication terminal
JP3994959B2 (en) Portable electronic device and portable telephone
JP4047834B2 (en) Portable information terminal
JP2008085618A (en) Mobile communication terminal
JP2009289031A (en) Method and apparatus for generating character animation data
JP2008085847A (en) Mobile electronic apparatus, catalogue image displaying method in mobile electronic apparatus, and program
JP4860288B2 (en) Mobile device
JP4309804B2 (en) Mobile communication terminal and method for controlling mobile communication terminal
KR20050083481A (en) Setting method for standby display in mobile communication terminal
KR20050105780A (en) Method of setting background picture in wireless communication terminal
JP2005192028A (en) Photography support tool for portable terminal, and program
KR20050113807A (en) Method for performing of slide show in wireless terminal

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100601