[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2018031860A - Photograph creating game machine, and information processing method - Google Patents

Photograph creating game machine, and information processing method Download PDF

Info

Publication number
JP2018031860A
JP2018031860A JP2016163136A JP2016163136A JP2018031860A JP 2018031860 A JP2018031860 A JP 2018031860A JP 2016163136 A JP2016163136 A JP 2016163136A JP 2016163136 A JP2016163136 A JP 2016163136A JP 2018031860 A JP2018031860 A JP 2018031860A
Authority
JP
Japan
Prior art keywords
image
user
character
unit
character image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016163136A
Other languages
Japanese (ja)
Other versions
JP6773966B2 (en
Inventor
妥美 呉屋
Yasumi Kureya
妥美 呉屋
さやか 葭本
Sayaka Yoshimoto
さやか 葭本
哲也 北
Tetsuya Kita
哲也 北
貴代 神野
Takayo Jinno
貴代 神野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furyu Corp
Original Assignee
Furyu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furyu Corp filed Critical Furyu Corp
Priority to JP2016163136A priority Critical patent/JP6773966B2/en
Publication of JP2018031860A publication Critical patent/JP2018031860A/en
Application granted granted Critical
Publication of JP6773966B2 publication Critical patent/JP6773966B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable the user to create pictorial images of characters resembling himself or herself for use in various purposes.SOLUTION: By using a photograph creating game machine, photographic images of its user can be taken, character images in which the external appearance of the user including his or her face parts is deformed are created based on photographed images, and the character images are printed on a printing medium and transmitted to a server preserving such character images and making them available in response to access from a mobile terminal in his or her possession. This technique can be applied to a photograph creating game machine that provides a series of games involving printing of the photographed images on a seal paper.SELECTED DRAWING: Figure 12

Description

本技術は、写真作成ゲーム機および情報処理方法に関し、特に、利用者が、自分に似ているキャラクターの画像を容易に作成し、様々な用途で用いることができるようにした写真作成ゲーム機および情報処理方法に関する。   The present technology relates to a photo creation game machine and an information processing method, and in particular, a photo creation game machine in which a user can easily create an image of a character similar to himself and use it for various purposes. The present invention relates to an information processing method.

従来、写真シール作成装置が知られている。写真シール作成装置は、利用者を撮影し、撮影画像に対して利用者に編集を行わせ、編集後の画像をシール紙に印刷して提供するものである。写真シール作成装置は遊戯施設などに設置される。   Conventionally, a photo sticker creating apparatus is known. The photo sticker creating apparatus takes a picture of a user, causes the user to edit the shot image, and provides the edited image on a sticker sheet. Photo sticker creation devices are installed in amusement facilities.

写真シール作成装置が提供する1ゲームの流れは、通常、撮影空間内にいる利用者を被写体として撮影を行った後、利用者を編集空間に移動させ、編集空間内で行われる操作に従って画像を編集して、編集済みの画像をシール紙に印刷するものとなる。   The flow of one game provided by the photo sticker creating apparatus usually involves shooting a user in the shooting space as a subject, moving the user to the editing space, and then displaying the image according to the operation performed in the editing space. The edited image is printed on the sticker sheet.

特許文献1には、写真シール作成装置によって撮影された撮影画像に所定の加工処理を施して、SNS(Social Networking Service)などで用いることができるコミュニケーション用画像を生成する技術が開示されている。所定の加工処理の一例として、似顔絵風の画像に加工する処理が挙げられている。似顔絵風の画像の生成は、撮影画像に写っている利用者の顔の各部位(目、鼻、口)の位置や大きさを認識し、各部位を、似顔絵風に加工した部位の画像と入れ替えることにより行われる。   Patent Document 1 discloses a technique for generating a communication image that can be used in an SNS (Social Networking Service) or the like by performing predetermined processing on a photographed image photographed by a photo sticker creating apparatus. As an example of the predetermined processing, there is a processing for processing a caricature-like image. Caricature-like images are generated by recognizing the position and size of each part (eyes, nose, mouth) of the user's face in the photographed image, and processing each part into a caricature-like image. It is done by replacing.

特開2015−180022号公報Japanese Patent Laid-Open No. 2015-180022

特許文献1に記載の技術において、似顔絵風の画像の生成は、写真シール作成装置から送信されてきた撮影画像のデータを受信したサーバ側で行われるようになっている。   In the technique described in Patent Document 1, a portrait-like image is generated on the server side that has received photographed image data transmitted from a photo sticker creating apparatus.

このため、ユーザは、ゲーム終了後に、自分の携帯端末を操作してサーバにアクセスして似顔絵風の画像を取得することになるため、その似顔絵風の画像を、ゲーム中に取得してシール紙に印刷することができない。よって、似顔絵風の画像が印刷されたシールとしてどこかに貼り付ける等の使い方をしたいユーザにとっては都合が悪い。   For this reason, after the game ends, the user operates his / her mobile terminal to access the server and obtains a portrait-like image. Therefore, the portrait-like image is acquired during the game and the sticker paper Cannot print on. Therefore, it is inconvenient for the user who wants to use it such as sticking it somewhere as a sticker on which a portrait-like image is printed.

本技術はこのような状況に鑑みてなされたものであり、利用者が、自分に似ているキャラクターの画像を容易に作成し、様々な用途で用いることができるようにするものである。   The present technology has been made in view of such a situation, and enables a user to easily create an image of a character similar to himself and use it for various purposes.

本技術の一側面の写真作成ゲーム機は、利用者を被写体として撮影を行う撮影部と、顔パーツを含む前記利用者の外観をデフォルメしたキャラクター画像を、前記撮影部による撮影によって得られた撮影画像に基づいて生成する生成部と、前記キャラクター画像を印刷媒体に印刷するとともに、前記キャラクター画像を保存して前記利用者が有する携帯端末からのアクセスに応じて提供するサーバに対して、前記キャラクター画像を送信する出力部とを備える。   A photo creation game machine according to one aspect of the present technology is a shooting unit obtained by shooting a shooting unit that takes a user as a subject and a character image that deforms the appearance of the user including a facial part by the shooting unit. A character generating unit configured to generate an image based on an image; and a server that prints the character image on a print medium and stores the character image according to an access from a mobile terminal of the user. And an output unit for transmitting an image.

本技術の一側面においては、利用者を被写体として撮影が行われ、顔パーツを含む前記利用者の外観をデフォルメしたキャラクター画像が、前記撮影によって得られた撮影画像に基づいて生成される。前記キャラクター画像が印刷媒体に印刷されるとともに、前記キャラクター画像を保存して前記利用者が有する携帯端末からのアクセスに応じて提供するサーバに対して、前記キャラクター画像が送信される。   In one aspect of the present technology, shooting is performed with a user as a subject, and a character image in which the appearance of the user including facial parts is deformed is generated based on the captured image obtained by the shooting. The character image is printed on a print medium, and the character image is transmitted to a server that stores the character image and provides the character image in response to access from a mobile terminal of the user.

本技術によれば、利用者が、自分に似ているキャラクターの画像を容易に作成し、様々な用途で用いることができる。   According to the present technology, a user can easily create an image of a character similar to himself and use it for various purposes.

本技術の写真シール作成装置の外観の構成例を示す斜視図である。It is a perspective view which shows the structural example of the external appearance of the photo sticker production apparatus of this technique. 写真シール作成装置の外観を他の角度からみた斜視図である。It is the perspective view which looked at the external appearance of the photograph sticker production apparatus from another angle. 利用者の移動について説明する図である。It is a figure explaining a user's movement. 事前選択部の構成例を示す図である。It is a figure which shows the structural example of a preselection part. 撮影部の構成例を示す図である。It is a figure which shows the structural example of an imaging | photography part. 背景部の構成例を示す図である。It is a figure which shows the structural example of a background part. 編集ユニットの正面の構成例を示す図である。It is a figure which shows the structural example of the front of an edit unit. 編集ユニットの側面の構成例を示す図である。It is a figure which shows the structural example of the side surface of an edit unit. シール紙の例を示す図である。It is a figure which shows the example of a sticker paper. 編集画像のレイヤ構造の例を示す図である。It is a figure which shows the example of the layer structure of an edit image. キャラクター画像の例を示す図である。It is a figure which shows the example of a character image. キャラクター画像の生成の例を示す図である。It is a figure which shows the example of the production | generation of a character image. キャラクター画像の用途の例を示す図である。It is a figure which shows the example of the use of a character image. 写真シール作成装置の内部の構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of a photograph sticker production apparatus. 制御部の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of a control part. 撮影処理部の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of an imaging | photography process part. 編集処理部の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of an edit process part. 写真シール作成ゲーム処理について説明するフローチャートである。It is a flowchart explaining a photograph sticker creation game process. 図18のステップS2において行われる事前選択処理について説明するフローチャートである。It is a flowchart explaining the pre-selection process performed in step S2 of FIG. パーツ選択画面の例を示す図である。It is a figure which shows the example of a parts selection screen. パーツ選択画面の他の例を示す図である。It is a figure which shows the other example of a parts selection screen. 図18のステップS3において行われる撮影処理について説明するフローチャートである。It is a flowchart explaining the imaging | photography process performed in step S3 of FIG. 個人認識用の撮影前のライブビュー画面の例を示す図である。It is a figure which shows the example of the live view screen before imaging | photography for personal recognition. 顔画像の切り出しの例を示す図である。It is a figure which shows the example of extraction of a face image. 個人認識用の撮影前のライブビュー画面の例を示す図である。It is a figure which shows the example of the live view screen before imaging | photography for personal recognition. 撮影結果表示画面の例を示す図である。It is a figure which shows the example of an imaging | photography result display screen. デフォルトのキャラクター画像の例を示す図である。It is a figure which shows the example of a default character image. 通常撮影前のライブビュー画面の例を示す図である。It is a figure which shows the example of the live view screen before normal imaging | photography. 写り調整画面の例を示す図である。It is a figure which shows the example of a reflection adjustment screen. 図18のステップS4において行われる編集処理について説明するフローチャートである。It is a flowchart explaining the edit process performed in step S4 of FIG. 結果確認画面の例を示す図である。It is a figure which shows the example of a result confirmation screen. 結果確認画面の他の例を示す図である。It is a figure which shows the other example of a result confirmation screen. 名前入力画面の例を示す図である。It is a figure which shows the example of a name input screen. 名前入力画面の他の例を示す図である。It is a figure which shows the other example of a name input screen. 使えるシールデザイン選択画面の例を示す図である。It is a figure which shows the example of the seal design selection screen which can be used. ウインドウの例を示す図である。It is a figure which shows the example of a window. 図36の一部を拡大して示す図である。It is a figure which expands and shows a part of FIG. 編集画面の例を示す図である。It is a figure which shows the example of an edit screen. 編集画面の他の例を示す図である。It is a figure which shows the other example of an edit screen. 編集パレットを拡大して示す図である。It is a figure which expands and shows an edit palette. キャラスタンプを用いた編集の例を示す図である。It is a figure which shows the example of the edit using a character stamp. 送信画像選択画面の例を示す図である。It is a figure which shows the example of a transmission image selection screen. アドレス入力画面の例を示す図である。It is a figure which shows the example of an address input screen. 使えるシールの例を示す図である。It is a figure which shows the example of the seal | sticker which can be used. 使えるシールの他の例を示す図である。It is a figure which shows the other example of a seal | sticker which can be used. 画像管理サイトの表示例を示す図である。It is a figure which shows the example of a display of an image management site. 画像管理サイトの他の表示例を示す図である。It is a figure which shows the other example of a display of an image management site.

<写真シール作成装置の外観構成>
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。
<External structure of photo sticker creation device>
FIG. 1 and FIG. 2 are perspective views showing a configuration example of the appearance of the photographic sticker creating apparatus 1.

写真シール作成装置1は、撮影画像や編集画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にしたりすることで、利用者に画像を提供する。写真シール作成装置1は、アミューズメント施設や店舗に設置される。写真シール作成装置1の利用者は、主に女子高生や若い女性が中心とされる。写真シール作成装置1において、1組あたり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、写真シール作成装置1において、1人の利用者がゲームを楽しむこともできる。   The photo sticker creating apparatus 1 is a game machine that provides a photographed image and an edited image. The photo sticker creating apparatus 1 provides an image to the user by printing the image on a sticker sheet or making the image viewable on the user's mobile terminal. The photo sticker creating apparatus 1 is installed in an amusement facility or store. The users of the photo sticker creating apparatus 1 are mainly high school girls and young women. In the photo sticker creating apparatus 1, a plurality of users such as two or three people can mainly enjoy the game per group. Of course, in the photo sticker creating apparatus 1, one user can enjoy the game.

写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が彩り豊かな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。   In the photo sticker creating apparatus 1, the user performs photographing work with himself / herself as a subject. The user synthesizes an image for synthesis such as a handwritten character or a stamp image with an image selected from the captured images obtained by shooting through an editing operation. As a result, the captured image is edited into a rich image. The user receives a sticker sheet on which an edited image that is an edited image is printed, and ends a series of games.

図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。   As shown in FIG. 1, the photo sticker creating apparatus 1 is basically configured by being installed in a state where a photographing unit 11 and an editing unit 12 are in contact with each other.

撮影ユニット11は、事前選択部20、撮影部21、および背景部22から構成される。事前選択部20は、撮影部21の側面に設置される。事前選択部20の前方の空間が、事前選択処理が行われる事前選択空間となる。また、撮影部21と背景部22は所定の距離だけ離して設置される。撮影部21と背景部22の間に形成される空間が、撮影処理が行われる撮影空間となる。   The photographing unit 11 includes a pre-selection unit 20, a photographing unit 21, and a background unit 22. The pre-selection unit 20 is installed on the side surface of the imaging unit 21. The space ahead of the preselection unit 20 is a preselection space in which preselection processing is performed. In addition, the photographing unit 21 and the background unit 22 are set apart by a predetermined distance. A space formed between the imaging unit 21 and the background unit 22 is an imaging space in which imaging processing is performed.

事前選択部20は、事前選択処理として、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を行ったりする。事前選択部20には、利用者が代金を投入する硬貨投入口や、各種の操作に用いられるタッチパネルモニタなどが設けられる。事前選択部20は、撮影空間の空き状況に応じて、適宜、事前選択空間にいる利用者を撮影空間へと案内する。   The pre-selection unit 20 performs guidance for introducing a game provided by the photo sticker creating apparatus 1 as pre-selection processing, and performs various settings in shooting processing performed in the shooting space. The pre-selection unit 20 is provided with a coin slot into which a user inserts a price, a touch panel monitor used for various operations, and the like. The pre-selection unit 20 guides the user in the pre-selection space to the shooting space as appropriate according to the availability of the shooting space.

撮影部21は、利用者を被写体として撮影するための装置である。撮影部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影部21の正面には、カメラや、各種の操作に用いられるタッチパネルモニタなどが設けられる。撮影空間において正面を向いている利用者からみて左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル41Aにより構成され、右側面が側面パネル41Bにより構成される。さらに、撮影部21の正面が正面パネル42により構成される。側面パネル41Aには、上述した事前選択部20が設置される。なお、事前選択部20が、側面パネル41Bに設置されるようにしてもよい。   The photographing unit 21 is a device for photographing a user as a subject. The photographing unit 21 is located in front of the user who has entered the photographing space. A camera, a touch panel monitor used for various operations, and the like are provided in front of the photographing unit 21 facing the photographing space. If the left side is the left side and the right side is the right side as viewed from the user facing the front in the imaging space, the left side of the imaging unit 21 is configured by the side panel 41A, and the right side is configured by the side panel 41B. Is done. Further, the front surface of the photographing unit 21 is constituted by a front panel 42. The pre-selection unit 20 described above is installed on the side panel 41A. The pre-selection unit 20 may be installed on the side panel 41B.

背景部22は、背面パネル51、側面パネル52A、および側面パネル52Bから構成される。背面パネル51は、正面を向いている利用者の背面側に位置する板状の部材である。側面パネル52Aは、背面パネル51の左端に取り付けられ、側面パネル41Aより横幅の狭い板状の部材である。側面パネル52Bは、背面パネル51の右端に取り付けられ、側面パネル41Bより横幅の狭い板状の部材である。   The background portion 22 includes a back panel 51, a side panel 52A, and a side panel 52B. The back panel 51 is a plate-like member located on the back side of the user facing the front. The side panel 52A is a plate-like member attached to the left end of the back panel 51 and having a narrower width than the side panel 41A. The side panel 52B is a plate-like member that is attached to the right end of the back panel 51 and has a narrower width than the side panel 41B.

側面パネル41Aと側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aの上部は、板状の部材である連結部23Aによって連結される。側面パネル41Aと側面パネル52Aの下部は、床面に設けた例えば金属製の部材である連結部23A’によって連結される。側面パネル41Bと側面パネル52Bも同様に、ほぼ同一平面に設けられる。側面パネル41Bと側面パネル52Bの上部は、連結部23Bによって連結される。側面パネル41Bと側面パネル52Bの下部は、連結部23B’によって連結される。   The side panel 41A and the side panel 52A are provided on substantially the same plane. The upper portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A that is a plate-like member. The lower portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A 'that is a metal member provided on the floor surface. Similarly, the side panel 41B and the side panel 52B are provided on substantially the same plane. The upper portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B. The lower portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B '.

なお、背面パネル51の撮影空間側の面には、例えば緑色のクロマキー用のシートが貼り付けられる。写真シール作成装置1は、クロマキー用のシートを背景として撮影することで、撮影処理や編集処理においてクロマキー合成を行う。これにより、利用者が所望する背景画像がシートの部分に合成される。   For example, a green chroma key sheet is attached to the surface of the rear panel 51 on the photographing space side. The photo sticker creating apparatus 1 performs chroma key composition in photographing processing and editing processing by photographing a chroma key sheet as a background. As a result, the background image desired by the user is combined with the sheet portion.

側面パネル41A、連結部23A、および側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、側面パネル41B、連結部23B、および側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。   An opening formed by being surrounded by the side panel 41A, the connecting portion 23A, and the side panel 52A serves as an entrance / exit of the imaging space. An opening formed by being surrounded by the side panel 41B, the connecting portion 23B, and the side panel 52B also serves as an entrance / exit of the imaging space.

撮影空間の上方には、撮影部21の正面、連結部23A、および連結部23Bに囲まれた天井が形成される。その天井の一部に、天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて光を照射するストロボを内蔵する。天井ストロボユニット24の内部には、ストロボの他に蛍光灯が設けられている。これにより、天井ストロボユニット24は、撮影空間の照明としても機能する。   A ceiling surrounded by the front surface of the photographing unit 21, the connecting portion 23A, and the connecting portion 23B is formed above the photographing space. A ceiling strobe unit 24 is provided in a part of the ceiling. One end of the ceiling strobe unit 24 is fixed to the connecting portion 23A, and the other end is fixed to the connecting portion 23B. The ceiling strobe unit 24 has a built-in strobe that emits light toward the photographing space in accordance with photographing. In addition to the strobe, a fluorescent lamp is provided inside the ceiling strobe unit 24. Thereby, the ceiling strobe unit 24 also functions as illumination of the photographing space.

編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影部21の正面パネル42に接するようにして、撮影ユニット11に連結している。   The editing unit 12 is a device for editing a captured image. The editing unit 12 is connected to the photographing unit 11 such that one side surface is in contact with the front panel 42 of the photographing unit 21.

図1に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集作業を行うことができる。   If the configuration of the editing unit 12 shown in FIG. 1 is a front side configuration, a configuration used for editing work is provided on each of the front side and the back side of the editing unit 12. With this configuration, two sets of users can perform editing work simultaneously.

編集ユニット12の正面側は、面61と、面61の上方に形成された斜面62から構成される。面61は、床面に対して垂直で、撮影部21の側面パネル41Aとほぼ平行な面である。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の左側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の右側には、照明装置64の他端を支持する柱状の支持部63Bが設けられる。支持部63Aの上面にはカーテンレール26を支持する支持部65が設けられる。   The front side of the editing unit 12 includes a surface 61 and a slope 62 formed above the surface 61. The surface 61 is a surface perpendicular to the floor surface and substantially parallel to the side panel 41A of the photographing unit 21. The slope 62 is provided with a tablet built-in monitor and a touch pen as a configuration used for editing work. On the left side of the slope 62, a columnar support portion 63A that supports one end of the lighting device 64 is provided. A columnar support portion 63B that supports the other end of the lighting device 64 is provided on the right side of the slope 62. A support portion 65 that supports the curtain rail 26 is provided on the upper surface of the support portion 63A.

編集ユニット12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、3本のレール26A乃至26Cを、組み合わせて構成される。3本のレール26A乃至26Cは、上から見たときの形状がコの字状となるように組み合わせられる。平行に設けられるレール26Aとレール26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、レール26Aとレール26Bの他端は、レール26Cの両端にそれぞれ接合される。   A curtain rail 26 is attached above the editing unit 12. The curtain rail 26 is configured by combining three rails 26A to 26C. The three rails 26A to 26C are combined so that the shape when viewed from above becomes a U-shape. One end of the rail 26A and the rail 26B provided in parallel is fixed to the connecting portion 23A and the connecting portion 23B, respectively, and the other end of the rail 26A and the rail 26B is joined to both ends of the rail 26C.

カーテンレール26には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。   A curtain is attached to the curtain rail 26 so that the space in front of the editing unit 12 and the space in front of the back are not visible from the outside. A space in front of the editing unit 12 surrounded by the curtain and a space in the rear rear of the editing unit 12 are editing spaces in which the user performs editing operations.

後述するが、編集ユニット12の左側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の左側面前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。   As will be described later, the left side surface of the editing unit 12 is provided with a discharge port through which printed sticker paper is discharged. The space in front of the left side surface of the editing unit 12 becomes a print waiting space where the user waits for the printed sticker paper to be discharged.

<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。図3は、写真シール作成装置1を上から見た平面図である。
<About user movement>
Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described. FIG. 3 is a plan view of the photo sticker creating apparatus 1 as viewed from above.

利用者は、事前選択部20の前方の空間である事前選択空間A0において硬貨投入口に代金を投入する。次に、利用者は、タッチパネルモニタに表示される画面に従って各種の設定を行う。利用者は、例えば、撮影空間で行われる撮影に関するコースの選択などを事前選択作業として行う。   The user inserts money into the coin slot in the pre-selected space A0 that is the space in front of the pre-selecting unit 20. Next, the user performs various settings according to the screen displayed on the touch panel monitor. The user performs, for example, selection of a course related to shooting performed in the shooting space as a pre-selection operation.

事前選択作業を終えた利用者は、白抜き矢印#1で示すように、側面パネル41Aと側面パネル52Aの間の出入り口G1から、撮影部21と背景部22の間に形成された撮影空間A1に入る。利用者は、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。   The user who has completed the pre-selection operation, as indicated by the white arrow # 1, has a shooting space A1 formed between the shooting unit 21 and the background unit 22 from the entrance G1 between the side panel 41A and the side panel 52A. to go into. A user performs a shooting operation using a camera or a touch panel monitor provided in the shooting unit 21.

撮影作業を終えた利用者は、白抜き矢印#2で示すように出入り口G1から撮影空間A1を出て編集空間A2−1に移動するか、または、白抜き矢印#3で示すように出入り口G2から撮影空間A1を出て編集空間A2−2に移動する。   The user who has finished the shooting work exits the shooting space A1 from the doorway G1 as indicated by the white arrow # 2 and moves to the editing space A2-1, or the doorway G2 as indicated by the white arrow # 3. Exits the shooting space A1 and moves to the editing space A2-2.

編集空間A2−1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2−2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は、編集作業を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集作業を行うことができる。   The editing space A2-1 is an editing space on the front side of the editing unit 12. On the other hand, the editing space A2-2 is an editing space on the back side of the editing unit 12. Whether the user moves to the editing space A2-1 or the editing space A2-2 is guided by the screen display of the touch panel monitor of the photographing unit 21 or the like. For example, the free one of the two editing spaces is guided as the destination. The user who has moved to the editing space A2-1 or the editing space A2-2 starts editing work. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing work at the same time.

編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2−1での編集作業を終えた利用者は、白抜き矢印#4で示すように編集空間A2−1から印刷待ち空間A3に移動する。また、編集空間A2−2での編集作業を終えた利用者は、白抜き矢印#5で示すように編集空間A2−2から印刷待ち空間A3に移動する。   After the editing operation is finished, printing of the edited image is started. When printing is started, the user who has finished the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by a white arrow # 4. Further, the user who has finished the editing work in the editing space A2-2 moves from the editing space A2-2 to the print waiting space A3 as indicated by the white arrow # 5.

印刷待ち空間A3に移動した利用者は、印刷が終わるのを待つ。印刷が終了すると、利用者は、編集ユニット12の右側面に設けられた排出口から排出されたシール紙を受け取り、一連の写真シール作成ゲームを終える。   The user who has moved to the print waiting space A3 waits for the printing to end. When printing is completed, the user receives the sticker paper discharged from the discharge port provided on the right side of the editing unit 12 and finishes a series of photo sticker creation games.

次に、各装置の構成について説明する。   Next, the configuration of each device will be described.

<事前選択部の構成>
図4は、事前選択部20の構成例を示す図である。
<Configuration of preselection unit>
FIG. 4 is a diagram illustrating a configuration example of the preselection unit 20.

事前選択部20の上側にはタッチパネルモニタ71が設けられる。タッチパネルモニタ71は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ71は、各種のGUI(Graphical User Interface)を表示し、利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ71には、利用者の人数の選択、撮影コースの選択などを行わせる事前選択処理に用いられる画面が表示される。   A touch panel monitor 71 is provided above the preselection unit 20. The touch panel monitor 71 includes a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated thereon. The touch panel monitor 71 has a function of displaying various GUIs (Graphical User Interfaces) and accepting a user's selection operation. The touch panel monitor 71 displays a screen used for pre-selection processing for selecting the number of users, selecting a shooting course, and the like.

タッチパネルモニタ71の下方には、スピーカ72が設けられる。スピーカ72は、事前選択処理の案内音声、BGM(Back Ground Music)、効果音などを出力する。スピーカ72に隣接するようにして、利用者が硬貨を入れる硬貨投入返却口73が設けられる。   A speaker 72 is provided below the touch panel monitor 71. The speaker 72 outputs guidance voice, BGM (Back Ground Music), sound effects, etc. for the pre-selection process. A coin insertion / return port 73 into which a user inserts coins is provided so as to be adjacent to the speaker 72.

<撮影部の構成>
図5は、撮影部21の正面の構成例を示す図である。撮影部21は、側面パネル41A、側面パネル41B、および正面パネル42に囲まれるようにして構成される。
<Configuration of the shooting unit>
FIG. 5 is a diagram illustrating a configuration example of the front of the photographing unit 21. The photographing unit 21 is configured to be surrounded by the side panel 41A, the side panel 41B, and the front panel 42.

正面パネル42の中央よりやや上側には、カメラユニット81が設けられる。カメラユニット81は、カメラ91、タッチパネルモニタ92、および正面ストロボ93から構成される。   A camera unit 81 is provided slightly above the center of the front panel 42. The camera unit 81 includes a camera 91, a touch panel monitor 92, and a front strobe 93.

カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91は、利用者を被写体として撮影を行う撮影部として機能する。   The camera 91 is a single-lens reflex camera, for example, and is attached inside the camera unit 81 so that the lens is exposed. The camera 91 includes an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and photographs a user in the photographing space A1. The camera 91 functions as a photographing unit that performs photographing using a user as a subject.

カメラ91により取り込まれた動画像(以下、ライブビュー画像ともいう)は、タッチパネルモニタ92にリアルタイムで表示される。撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。   A moving image (hereinafter also referred to as a live view image) captured by the camera 91 is displayed on the touch panel monitor 92 in real time. A still image captured by the camera 91 at a predetermined timing such as when shooting is instructed is saved as a captured image.

タッチパネルモニタ92は、カメラ91の下方に設けられる。タッチパネルモニタ92は、LCDなどのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUIを表示し利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ92には、カメラ91により取り込まれた動画像(ライブビュー画像)や静止画像(撮影画像)が表示される。   The touch panel monitor 92 is provided below the camera 91. The touch panel monitor 92 includes a monitor such as an LCD and a touch panel laminated thereon. The touch panel monitor 92 has a function as a live view monitor that displays a moving image captured by the camera 91 and a function that displays various GUIs and accepts a user's selection operation. On the touch panel monitor 92, a moving image (live view image) and a still image (captured image) captured by the camera 91 are displayed.

正面ストロボ93は、カメラ91の上方に設けられる。正面ストロボ93は、乳白アクリル板よりなる横長長方形の発光面を有する。正面ストロボ93は、カメラ91による撮影に合わせて発光することで、被写体としての利用者の顔付近を正面から照射する。   The front strobe 93 is provided above the camera 91. The front strobe 93 has a horizontally long light emitting surface made of a milky white acrylic plate. The front strobe 93 illuminates the vicinity of the user's face as a subject from the front by emitting light in accordance with shooting by the camera 91.

カメラユニット81の上方には、曲面の発光面を利用者に向けた上ストロボユニット82が設置される。上ストロボユニット82は、利用者の正面上方から、利用者の顔および上半身に光を照射する。   Above the camera unit 81, an upper strobe unit 82 with a curved light emitting surface facing the user is installed. The upper strobe unit 82 irradiates light on the user's face and upper body from the upper front of the user.

カメラユニット81の下方には、利用者の下半身および足元に光を照射する足元ストロボユニット83が設けられる。   Below the camera unit 81, a foot strobe unit 83 that irradiates light to the lower body and feet of the user is provided.

上ストロボユニット82および足元ストロボユニット83は、蛍光灯とストロボ発光可能な照明機器とにより構成される。上ストロボユニット82および足元ストロボユニット83は、撮影空間を明るくして、利用者の操作性や安全性を確保するために、撮影空間内を常時照らすとともに、撮影画像の画質を向上させるために、撮影タイミングでストロボ発光し、被写体となる利用者に光を照射する。   The upper strobe unit 82 and the foot strobe unit 83 are configured by a fluorescent lamp and an illumination device capable of strobe light emission. The upper strobe unit 82 and the foot strobe unit 83 illuminate the shooting space to ensure the user's operability and safety, and to constantly illuminate the shooting space and improve the image quality of the shot image. Strobe light is emitted at the shooting timing to illuminate the user who is the subject.

足元ストロボユニット83と側面パネル41Aとの間には、箱状部84が設けられる。また、足元ストロボユニット83と側面パネル41Bとの間には、箱状部85が設けられる。箱状部84,85の上面は、写真シール作成装置1の設置面と略水平な面をなし、撮影作業を行う利用者が手荷物などを置くための荷物置き場として用いられる。   A box-shaped portion 84 is provided between the foot strobe unit 83 and the side panel 41A. A box-shaped portion 85 is provided between the foot strobe unit 83 and the side panel 41B. The upper surfaces of the box-shaped portions 84 and 85 form a surface that is substantially horizontal to the installation surface of the photo sticker creating apparatus 1 and is used as a luggage storage place for a user who performs a photographing operation to place baggage.

なお、図示はしないが、正面パネル42の例えば天井付近には、スピーカが設けられる。そのスピーカは、撮影処理の案内音声、BGM、効果音などを出力する。   Although not shown, a speaker is provided near the ceiling of the front panel 42, for example. The speaker outputs shooting process guidance voice, BGM, sound effects, and the like.

<背景部の構成>
図6は、背景部22の撮影空間A1側の構成例を示す図である。
<Configuration of background part>
FIG. 6 is a diagram illustrating a configuration example of the background portion 22 on the photographing space A1 side.

背面パネル51の上方には、背面上ストロボ101が設置される。背面上ストロボ101は、背面上方から利用者に光を照射する。   Above the rear panel 51, a rear upper strobe 101 is installed. The rear upper strobe 101 irradiates the user with light from the upper rear side.

図中、背面パネル51の左方には、背面左ストロボ102が設置される。背面左ストロボ102は、背面右方から利用者を照射する。図中、背面パネル51の右方には、背面右ストロボ103が設置される。背面右ストロボ103は、背面左方から利用者を照射する。   In the drawing, a rear left strobe 102 is installed on the left side of the rear panel 51. The back left strobe 102 irradiates the user from the right side of the back. In the drawing, a rear right strobe 103 is installed on the right side of the rear panel 51. The rear right strobe 103 irradiates the user from the left rear side.

また、背面パネル51の撮影空間A1側(図中、手前側)の面には、クロマキーシート121が貼り付けられる。クロマキーシート121の色は、例えば緑色とされる。   A chroma key sheet 121 is attached to the surface of the rear panel 51 on the photographing space A1 side (the front side in the drawing). The color of the chroma key sheet 121 is, for example, green.

なお、図示はしないが、側面パネル52A,52Bの撮影空間A1側の面の下側(床面側)にも、クロマキーシート121と同様に、クロマキーシートが貼り付けられる。   Although not shown, a chroma key sheet is also attached to the lower side (floor side) of the surface of the side panels 52A and 52B on the photographing space A1 side in the same manner as the chroma key sheet 121.

<編集ユニットの構成>
図7は、編集ユニット12の正面側(編集空間A2−1側)の構成例を示す図である。
<Configuration of editing unit>
FIG. 7 is a diagram illustrating a configuration example of the editing unit 12 on the front side (editing space A2-1 side).

斜面62のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。   A tablet built-in monitor 131 is provided in the approximate center of the slope 62. On the left side of the tablet built-in monitor 131, a touch pen 132A is provided. On the right side of the tablet built-in monitor 131, a touch pen 132B is provided.

タブレット内蔵モニタ131は、タブレットとディスプレイを積層して構成される。タブレットは、タッチペン132Aまたはタッチペン132Bを用いた操作入力を可能とする。タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。   The tablet built-in monitor 131 is configured by stacking a tablet and a display. The tablet enables operation input using the touch pen 132A or the touch pen 132B. On the tablet built-in monitor 131, for example, an editing screen used for editing work is displayed. When two users perform editing work at the same time, the touch pen 132A is used by a user on the left side of the tablet built-in monitor 131, and the touch pen 132B is used by a user on the right side of the tablet built-in monitor 131. .

なお、タッチペン132Aを用いた操作とタッチペン132Bを用いた操作は識別される。適宜、タブレット内蔵モニタ131の左側の表示に対してはタッチペン132Aを用いた操作のみが可能とされ、右側の表示に対してはタッチペン132Bを用いた操作のみが可能とされる。以下、適宜、タッチペン132Aとタッチペン132Bを区別する必要がない場合、まとめてタッチペン132という。   The operation using the touch pen 132A and the operation using the touch pen 132B are distinguished. As appropriate, only the operation using the touch pen 132A is possible for the left side display of the tablet built-in monitor 131, and only the operation using the touch pen 132B is possible for the right side display. Hereinafter, when it is not necessary to distinguish the touch pen 132A and the touch pen 132B as appropriate, they are collectively referred to as the touch pen 132.

図8は、編集ユニット12の左側面の構成例を示す図である。   FIG. 8 is a diagram illustrating a configuration example of the left side surface of the editing unit 12.

編集ユニット12の左側面の下側にはシール紙排出口161が設けられる。編集ユニット12の内部にはプリンタが設けられている。そのプリンタにより、編集空間A2−1の利用者が写る画像、または、編集空間A2−2の利用者が写る画像が所定のレイアウトでシール紙に印刷され、シール紙排出口161から排出される。   A sticker paper discharge port 161 is provided below the left side surface of the editing unit 12. A printer is provided inside the editing unit 12. The printer prints an image showing the user of the editing space A2-1 or an image showing the user of the editing space A2-2 on a sticker sheet with a predetermined layout, and discharges it from the sticker paper outlet 161.

<シール紙の例>
図9は、以上のような外観構成を有する写真シール作成装置1により作成されるシール紙の例を示す図である。
<Example of sticker paper>
FIG. 9 is a diagram showing an example of a sticker sheet created by the photographic sticker creator 1 having the above-described external configuration.

図9に示す横長のシール紙には、5枚の編集画像である編集画像181−1乃至181−5が横に並べて印刷されている。   On the horizontally long sticker sheet shown in FIG. 9, edited images 181-1 to 181-5, which are five edited images, are printed side by side.

編集画像181−1乃至181−5のうち、編集画像181−1乃至181−3は、アップ画像に対して編集が施されることによって生成された画像であり、編集画像181−4と編集画像181−5は、全身画像に対して編集が施されることによって生成された画像である。   Of the edited images 181-1 to 181-5, the edited images 181-1 to 181-3 are images generated by editing the up image, and the edited image 181-4 and the edited image Reference numeral 181-5 denotes an image generated by editing the whole body image.

アップ画像は、被写体の顔と上半身が大きく写る画像である。一方、全身撮影は、被写体の全身が写る画像である。   The up image is an image in which the face of the subject and the upper body are enlarged. On the other hand, whole body photography is an image showing the whole body of a subject.

アップ画像と全身画像は縦横比が異なる。例えば、アップ画像の横方向の長さと縦方向の長さの比は1:1.2であり、全身画像の横方向の長さと縦方向の長さの比は3:4である。図9の例においては、アップ画像と全身画像が、横方向の長さを同じ長さとして印刷されている。なお、実際には、利用者の背景には、所定の色や柄の画像である背景画像が、前景には、手書きの文字やスタンプ画像などの前景画像が合成される。   The up image and the whole body image have different aspect ratios. For example, the ratio between the horizontal length and the vertical length of the up image is 1: 1.2, and the ratio between the horizontal length and the vertical length of the whole-body image is 3: 4. In the example of FIG. 9, the up image and the whole body image are printed with the same length in the horizontal direction. In practice, a background image that is an image of a predetermined color or pattern is combined with the background of the user, and a foreground image such as a handwritten character or a stamp image is combined with the foreground.

シール紙の縁の余白には、機種名(LOVERY)と撮影日の他に、シールIDなどが印刷される。余白領域に印刷されたシールIDは、写真シール作成装置1からサーバに送信された画像を携帯電話機などの携帯端末で閲覧するときに利用される。携帯端末に対する画像の送信は、サーバを介して行われる。   In addition to the model name (LOVERY) and shooting date, a sticker ID is printed in the margin of the sticker paper. The sticker ID printed in the blank area is used when viewing an image transmitted from the photo sticker creating apparatus 1 to the server on a portable terminal such as a cellular phone. The image transmission to the portable terminal is performed via a server.

後述するように、写真シール作成装置1においては、印刷前のレイアウト(分割数)の選択時、シール紙の端に、機能性を持たせた画像を印刷するレイアウトを選択することができるようになされている。   As will be described later, in the photo sticker creating apparatus 1, when a layout (number of divisions) before printing is selected, a layout for printing an image having functionality on the edge of the sticker paper can be selected. Has been made.

例えば、利用者の名前を含む画像、1ヶ月分のカレンダーを含む画像、メッセージを含む画像、占い結果を含む画像などの複数の選択候補のうち、利用者により選択された種類の画像が撮影画像を用いて生成され、シール紙の端に印刷される。利用者は、その画像が印刷された端の部分をはさみなどで切り取り、文房具に貼り付けるなどして利用することができる。   For example, an image of a type selected by the user among a plurality of selection candidates such as an image including a user's name, an image including a calendar for one month, an image including a message, and an image including a fortune telling image is taken. And printed on the edge of the sticker paper. The user can use the image by printing the edge portion on which the image is printed with scissors and pasting it on a stationery.

以下、適宜、機能性を持たせた画像としてシール紙の端に印刷される画像を、デザインを重視して印刷される編集画像とは異なり機能性を重視しているという意味で、「使えるシール」の画像という。   In the following, the image printed on the edge of the sticker paper as an image with functionality will be referred to as “usable stickers” in the sense that it emphasizes functionality, unlike edit images printed with emphasis on design. ".

図10は、編集画像のレイヤ構造の例を示す図である。   FIG. 10 is a diagram illustrating an example of a layer structure of an edited image.

左端の編集画像P1が編集によって生成される画像である。編集画像P1は、背景画像P11、撮影画像P12、前景画像P13の各レイヤの画像から構成される。   The leftmost edited image P1 is an image generated by editing. The edited image P1 is composed of images of each layer of a background image P11, a captured image P12, and a foreground image P13.

図10の例において、背景画像P11は、レンガを重ねた壁面の柄の画像である。前景画像P13は、「Love my friend」の手書き文字の画像とハート型の画像を含む画像である。「Love my friend」の手書き文字の画像は、撮影画像P12の中央下方の位置にペンツールを用いて利用者によって入力されたペン画像である。また、ハート型の画像は、撮影画像P12の左上の位置にスタンプツールを用いて利用者によって入力されたスタンプ画像である。   In the example of FIG. 10, the background image P <b> 11 is an image of a wall pattern on which bricks are stacked. The foreground image P13 is an image including a handwritten character image of “Love my friend” and a heart-shaped image. The handwritten character image of “Love my friend” is a pen image input by the user using a pen tool at a position below the center of the captured image P12. The heart-shaped image is a stamp image input by the user using a stamp tool at the upper left position of the captured image P12.

このように、編集画像P1は、クロマキー処理によって抽出した撮影画像P12の被写体の領域を背景画像P11に重ね、その上に前景画像P13を重ねることによって生成される。ペン画像やスタンプ画像を背景画像P11上に入力し、被写体の背景に表示させるようにすることも可能とされる。撮影画像に対しては、前景画像や背景画像が合成されることもあるし、編集処理を経たとしても利用者の操作によっては合成されないこともある。以下、適宜、編集処理を経た撮影画像を、編集画像ではなく、単に撮影画像ともいう。   As described above, the edited image P1 is generated by superimposing the subject area of the captured image P12 extracted by the chroma key process on the background image P11 and superimposing the foreground image P13 thereon. It is also possible to input a pen image or a stamp image on the background image P11 and display it on the background of the subject. Foreground images and background images may be combined with the photographed image, and even after editing processing, it may not be combined depending on the operation of the user. Hereinafter, a captured image that has undergone editing processing is also referred to as a captured image instead of an edited image.

<キャラクター画像について>
ここで、キャラクター画像の生成機能について説明する。
<About character images>
Here, the character image generation function will be described.

図11は、キャラクター画像の例を示す図である。   FIG. 11 is a diagram illustrating an example of a character image.

写真シール作成装置1は、カメラ91により撮影した画像に基づいて、利用者の外観をデフォルメしたキャラクターの画像を生成する機能を有する。ここで、利用者の外観をデフォルメするとは、利用者の外観を、変形、歪曲、誇張して表現することを含む。   The photo sticker creating apparatus 1 has a function of generating an image of a character whose appearance is deformed based on an image photographed by the camera 91. Here, deforming the appearance of the user includes expressing the appearance of the user with deformation, distortion, and exaggeration.

図11の左側に示す画像は、利用者の顔が写っている画像である顔画像である。顔画像はカメラ91により撮影して得られた撮影画像から切り出して生成される。一方、矢印の先に示す画像は、顔画像に基づいて生成されたキャラクター画像である。   The image shown on the left side of FIG. 11 is a face image that is an image showing a user's face. The face image is generated by being cut out from a photographed image obtained by photographing with the camera 91. On the other hand, the image shown at the tip of the arrow is a character image generated based on the face image.

例えば、図12の矢印#11に示すように、写真シール作成装置1は、目、眉毛、鼻、口などの顔パーツを顔画像から抽出し、抽出した顔パーツに対して、線画への変換処理、変形、色変換、サイズ調整などの画像処理を施す。写真シール作成装置1は、そのような画像処理を施すことによって得られた顔パーツと、利用者により選択された、顔、髪型などの他のパーツとを矢印#12の先に示すように合成し、矢印#13の先に示すようなキャラクター画像を生成する。   For example, as shown by an arrow # 11 in FIG. 12, the photo sticker creating apparatus 1 extracts facial parts such as eyes, eyebrows, nose, and mouth from a face image, and converts the extracted facial parts into a line drawing. Image processing such as processing, deformation, color conversion, and size adjustment is performed. The photo sticker creating apparatus 1 combines the face parts obtained by performing such image processing and other parts such as the face and hairstyle selected by the user as indicated by the tip of arrow # 12. Then, a character image as shown at the tip of arrow # 13 is generated.

キャラクター画像の生成に用いられる顔パーツは、顔画像から抽出した画像を元にして生成されたものである。キャラクター画像は、顔パーツを少なくとも含む利用者の外観をデフォルメした画像となる。なお、顔画像から抽出される顔パーツは、目、眉毛、鼻、口を含む顔の器官のうちの少なくともいずれかであればよい。例えば、目、眉毛、鼻については、顔画像から抽出してキャラクター画像の生成に用い、口については、利用者に事前に選択させたものをキャラクター画像の生成に用いるようにすることも可能である。   The face parts used for generating the character image are generated based on the image extracted from the face image. The character image is an image in which the appearance of the user including at least the facial parts is deformed. Note that the facial parts extracted from the facial image may be at least one of facial organs including eyes, eyebrows, nose, and mouth. For example, the eyes, eyebrows, and nose can be extracted from the face image and used to generate the character image, and the mouth can be used by the user in advance to generate the character image. is there.

このようにして生成されたキャラクター画像は、シール紙に印刷したり、利用者が写る撮影画像に合成したり、携帯端末に送信したりするといったように、ゲーム中、またはゲーム終了後に、様々な用途で用いることが可能とされる。   The character image generated in this way can be printed in various ways during or after the game, such as printing on sticker paper, synthesizing it with a photographed image of the user, or sending it to a mobile terminal. It can be used in applications.

図13は、キャラクター画像の用途の例を示す図である。   FIG. 13 is a diagram illustrating an example of use of a character image.

図13Aは、シール紙に印刷する用途を示す図である。図13Aの例においては、撮影画像P31乃至P35に並べて、メッセージを含む使えるシールの画像P41がシール紙の右端に印刷されている。撮影画像P31乃至P35は、図9の編集画像181−1乃至181−5と同じ画像である。   FIG. 13A is a diagram illustrating an application for printing on a sticker sheet. In the example of FIG. 13A, a usable sticker image P41 including a message is printed on the right end of the sticker sheet in a line with the captured images P31 to P35. The captured images P31 to P35 are the same images as the edited images 181-1 to 181-5 in FIG.

キャラクター画像P101は、使えるシールの画像P41に嵌め込む形で用いられている。円形に切り出されたキャラクター画像P101の隣にはメッセージが配置されている。   The character image P101 is used in a form that fits into a usable sticker image P41. A message is arranged next to the character image P101 cut out in a circle.

このように、キャラクター画像は、使えるシールの画像としてシール紙に印刷することが可能とされる。利用者は、シール紙の右端の部分を切り取り、使えるシールとして、好みの場所に貼り付けて利用することができる。   In this manner, the character image can be printed on the sticker paper as a usable sticker image. The user can cut out the right end portion of the sticker paper and use it as a sticker that can be used by sticking it to a desired place.

図13Bは、スタンプ画像としてのキャラクター画像の用途を示す図である。撮影画像の編集時、編集画面には、キャラクター画像に基づいて生成されたスタンプ画像が落書きコンテンツとして用意される。図13Bに示すように、利用者は、タッチペンなどを用いて、キャラクター画像P101を撮影画像P31の所定の位置に配置して合成することができる。   FIG. 13B is a diagram illustrating a use of a character image as a stamp image. When editing a captured image, a stamp image generated based on the character image is prepared as a graffiti content on the editing screen. As shown in FIG. 13B, the user can use a touch pen or the like to arrange and synthesize a character image P101 at a predetermined position in the captured image P31.

図13Cは、携帯端末で閲覧する用途を示す図である。キャラクター画像P101は、利用者が写る撮影画像(写真)などとともにサーバに送信される。   FIG. 13C is a diagram illustrating an application for browsing on a mobile terminal. The character image P101 is transmitted to the server together with a photographed image (photograph) that shows the user.

利用者は、ゲームの終了後、携帯端末を操作してサーバにアクセスし、シール紙に印刷されたシールIDを入力するなどして、キャラクター画像を携帯端末で閲覧することができる。利用者は、キャラクター画像をSNSサービスのサイトなどにアップロードし、SNSサービスを通じて友達などに見せることができる。   After the game is over, the user can view the character image on the mobile terminal by operating the mobile terminal to access the server and inputting the sticker ID printed on the sticker paper. Users can upload character images to SNS service sites and show them to friends through the SNS service.

シールIDではなくQRコード(登録商標)がシール紙に印刷されている場合、QRコード(登録商標)を携帯端末で読み取ることによっても、キャラクター画像を携帯端末で閲覧することが可能となる。   When the QR code (registered trademark) is printed on the sticker paper instead of the seal ID, the character image can be viewed on the portable terminal by reading the QR code (registered trademark) with the portable terminal.

このように、利用者は、自分に似ているキャラクター画像を容易に作成し、様々な用途で用いることができる。   In this way, the user can easily create a character image similar to himself and use it for various purposes.

なお、利用者が複数人である場合、それぞれの利用者の顔画像に基づいて、それぞれの利用者のキャラクター画像が生成される。すなわち、利用者の人数と同じ人数のキャラクター画像が生成されることになる。写真シール作成装置1においては、それぞれの利用者(利用者の顔)とキャラクター画像が紐付けて管理される。   When there are a plurality of users, a character image of each user is generated based on the face image of each user. That is, the same number of character images as the number of users are generated. In the photo sticker creating apparatus 1, each user (user's face) and character image are managed in association with each other.

以下、利用者の人数が2人であるとして選択された場合に、キャラクター画像の生成が行われるものとする。キャラクター画像の生成は、利用者の人数が3人以上として選択された場合には行われない。利用者の人数の選択は、事前選択作業として、撮影の前に行われる。   Hereinafter, it is assumed that a character image is generated when the number of users is selected as two. The generation of the character image is not performed when the number of users is selected as three or more. The selection of the number of users is performed before photographing as a pre-selection operation.

当然、利用者の人数が3人以上として選択された場合にもキャラクター画像の生成が行われるようにすることが可能である。   Naturally, it is possible to generate a character image even when the number of users is selected as three or more.

<写真シール作成装置の内部構成>
図14は、写真シール作成装置1の内部の構成例を示すブロック図である。図14において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
<Internal configuration of photo sticker creation device>
FIG. 14 is a block diagram illustrating an internal configuration example of the photo sticker creating apparatus 1. In FIG. 14, the same components as those described above are denoted by the same reference numerals. The overlapping description will be omitted as appropriate.

制御部301はCPU(Central Processing Unit)などにより構成される。制御部301は、ROM(Read Only Memory)306や記憶部302に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部301には、記憶部302、通信部303、ドライブ304、ROM306、RAM(Random Access Memory)307が接続される。制御部301には、事前選択部308、撮影部309、編集部310A,310B、および印刷部311の各構成も接続される。   The control unit 301 is configured by a CPU (Central Processing Unit) or the like. The control unit 301 executes a program stored in a ROM (Read Only Memory) 306 or a storage unit 302 and controls the overall operation of the photo sticker creating apparatus 1. A storage unit 302, a communication unit 303, a drive 304, a ROM 306, and a RAM (Random Access Memory) 307 are connected to the control unit 301. The control unit 301 is also connected to each configuration of a pre-selection unit 308, an imaging unit 309, editing units 310 </ b> A and 310 </ b> B, and a printing unit 311.

記憶部302は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部302は、制御部301から供給された各種の設定情報などを記憶する。記憶部302に記憶されている情報は制御部301により適宜読み出される。   The storage unit 302 is a non-volatile storage medium such as a hard disk or a flash memory. The storage unit 302 stores various setting information supplied from the control unit 301. Information stored in the storage unit 302 is appropriately read out by the control unit 301.

通信部303は、インターネットなどのネットワークのインタフェースである。通信部303は、制御部301による制御に従って外部の装置と通信を行う。通信部303は、例えば、利用者により選択された画像を、例えば写真シール作成装置1の製造メーカが管理するサーバに送信する。通信部303から送信された画像は、サーバにおいて所定の記憶領域が割り当てられて保存され、サーバにアクセスしてきた携帯端末上で表示されたり、その携帯端末にダウンロードされたりする。   The communication unit 303 is a network interface such as the Internet. The communication unit 303 communicates with an external device according to control by the control unit 301. For example, the communication unit 303 transmits the image selected by the user to, for example, a server managed by the manufacturer of the photo sticker creating apparatus 1. The image transmitted from the communication unit 303 is allocated and stored in a predetermined storage area in the server, and is displayed on a portable terminal that has accessed the server or downloaded to the portable terminal.

ドライブ304には、光ディスクや半導体メモリなどよりなるリムーバブルメディア305が適宜装着される。ドライブ304によりリムーバブルメディア305から読み出されたプログラムやデータは、制御部301に供給され、記憶部302に記憶されたり、インストールされたりする。   A removable medium 305 made of an optical disk, a semiconductor memory, or the like is appropriately attached to the drive 304. The programs and data read from the removable medium 305 by the drive 304 are supplied to the control unit 301 and stored in the storage unit 302 or installed.

ROM306は、制御部301において実行されるプログラムやデータを記憶する。RAM307は、制御部301が処理するデータやプログラムを一時的に記憶する。   The ROM 306 stores programs and data executed by the control unit 301. The RAM 307 temporarily stores data and programs processed by the control unit 301.

事前選択部308は、事前選択空間A0にいる利用者を対象とした事前選択処理を実現する。事前選択部308は、タッチパネルモニタ71、スピーカ72、および硬貨処理部321から構成される。   The preselection unit 308 realizes a preselection process for a user in the preselection space A0. The preselection unit 308 includes a touch panel monitor 71, a speaker 72, and a coin processing unit 321.

タッチパネルモニタ71は、制御部301による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部301に供給され、各種の設定が行われる。   The touch panel monitor 71 displays various selection screens according to control by the control unit 301 and accepts user operations on the selection screens. An input signal representing the content of the user's operation is supplied to the control unit 301, and various settings are performed.

硬貨処理部321は、硬貨投入返却口73への硬貨の投入を検出する。硬貨処理部321は、所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号を制御部301に出力する。   The coin processing unit 321 detects the insertion of coins into the coin insertion / return port 73. When the coin processing unit 321 detects that a predetermined amount of coins has been inserted, the coin processing unit 321 outputs an activation signal instructing the start of the game to the control unit 301.

撮影部309は、撮影空間A1にいる利用者を対象とした撮影処理を実現する。撮影部309は、照明装置331、カメラ91、タッチパネルモニタ92、およびスピーカ332から構成される。   The photographing unit 309 realizes photographing processing for a user in the photographing space A1. The photographing unit 309 includes an illumination device 331, a camera 91, a touch panel monitor 92, and a speaker 332.

照明装置331は、撮影空間A1内の各ストロボユニットであり、制御部301から供給される照明制御信号に従って発光する。   The illumination device 331 is each strobe unit in the imaging space A1, and emits light according to an illumination control signal supplied from the control unit 301.

カメラ91は、制御部301によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像(画像データ)を制御部301に出力する。   The camera 91 performs shooting according to the shutter control by the control unit 301 and outputs a captured image (image data) obtained by the shooting to the control unit 301.

編集部310Aは、編集空間A2−1にいる利用者を対象とした編集処理を実現する。編集部310Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ341から構成される。編集部310Bは、編集空間A2−2にいる利用者を対象とした編集処理を実現し、編集部310Aと同一の構成を有する。なお、以下、編集部310A,310Bを特に区別しない場合には、単に、編集部310という。   The editing unit 310A implements editing processing for users in the editing space A2-1. The editing unit 310A includes a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 341. The editing unit 310B realizes editing processing for users in the editing space A2-2, and has the same configuration as the editing unit 310A. Hereinafter, when the editing units 310A and 310B are not particularly distinguished, they are simply referred to as the editing unit 310.

タブレット内蔵モニタ131は、制御部301による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部301に供給され、編集対象となる撮影画像が編集される。   The tablet built-in monitor 131 displays an editing screen according to control by the control unit 301 and accepts a user operation on the editing screen. An input signal representing the content of the user's operation is supplied to the control unit 301, and the captured image to be edited is edited.

印刷部311は、印刷待ち空間A3にいる利用者に、印刷済みのシール紙である写真シールを出力する印刷処理を実現する。印刷部311は、プリンタ351を含むように構成される。プリンタ351にはシール紙ユニット352が装着される。   The printing unit 311 realizes a printing process for outputting a photo sticker which is a printed sticker sheet to a user in the print waiting space A3. The printing unit 311 is configured to include a printer 351. A sticker unit 352 is attached to the printer 351.

プリンタ351は、制御部301から供給された印刷データに基づいて、内蔵するヘッド361によって、画像をシール紙ユニット352に収納されているロール紙363に印刷する。また、プリンタ351は、画像を印刷したロール紙363をカッター362によって所定のカット位置でカットして、シール紙排出口161に排出する。   Based on the print data supplied from the control unit 301, the printer 351 prints an image on a roll paper 363 stored in a sticker paper unit 352 by using a built-in head 361. Further, the printer 351 cuts the roll paper 363 on which the image is printed at a predetermined cutting position by the cutter 362 and discharges the roll paper 363 to the sticker paper discharge port 161.

<制御部の構成>
図15は、制御部301の機能構成例を示すブロック図である。図15に示す機能部のうちの少なくとも一部は、制御部301内のCPUにより所定のプログラムが実行されることによって実現される。
<Configuration of control unit>
FIG. 15 is a block diagram illustrating a functional configuration example of the control unit 301. At least a part of the functional units shown in FIG. 15 is realized by a predetermined program being executed by the CPU in the control unit 301.

制御部301は、事前選択処理部401、撮影処理部402、編集処理部403、および印刷処理部404から構成される。   The control unit 301 includes a pre-selection processing unit 401, an imaging processing unit 402, an editing processing unit 403, and a print processing unit 404.

事前選択処理部401は、事前選択部308の各部を制御することで、事前選択処理を実行する。事前選択処理により、例えば、キャラクター画像を構成する特定のパーツの選択が行われる。利用者による選択内容を表す情報であるパーツ選択情報は編集処理部403に供給される。   The preselection processing unit 401 executes the preselection processing by controlling each unit of the preselection unit 308. By the pre-selection process, for example, a specific part constituting the character image is selected. Parts selection information, which is information representing the selection contents by the user, is supplied to the editing processing unit 403.

撮影処理部402は、撮影部309の各部を制御することで、撮影処理を実行する。編集処理部403は、編集部310の各部を制御することで、編集処理を実行する。印刷処理部404は、印刷部311のプリンタ351を制御することで、印刷処理を実行する。   The imaging processing unit 402 executes imaging processing by controlling each unit of the imaging unit 309. The editing processing unit 403 executes editing processing by controlling each unit of the editing unit 310. The print processing unit 404 executes print processing by controlling the printer 351 of the printing unit 311.

図16は、撮影処理部402の機能構成例を示すブロック図である。   FIG. 16 is a block diagram illustrating a functional configuration example of the imaging processing unit 402.

撮影処理部402は、撮影制御部411、クロマキー処理部412、画像処理部413、顔認識部414、および表示制御部415から構成される。   The photographing processing unit 402 includes a photographing control unit 411, a chroma key processing unit 412, an image processing unit 413, a face recognition unit 414, and a display control unit 415.

撮影制御部411は、カメラ91を制御して画角を調整し、利用者を被写体として撮影を行う。撮影制御部411は、カメラ91により取り込まれたライブビュー画像用の動画像をクロマキー処理部412に出力する。また、撮影制御部411は、撮影画像の撮影タイミングになったときにカメラ91により撮影された静止画像をクロマキー処理部412に出力する。   The imaging control unit 411 controls the camera 91 to adjust the angle of view, and performs imaging with the user as the subject. The shooting control unit 411 outputs the moving image for the live view image captured by the camera 91 to the chroma key processing unit 412. Further, the shooting control unit 411 outputs a still image shot by the camera 91 to the chroma key processing unit 412 when the shooting timing of the shot image comes.

クロマキー処理部412は、撮影制御部411から供給された画像に対してクロマキー処理を行い、利用者の背景の領域を抽出する。クロマキー処理部412は、クロマキー処理後の画像を画像処理部413に出力する。   The chroma key processing unit 412 performs chroma key processing on the image supplied from the imaging control unit 411 and extracts a background area of the user. The chroma key processing unit 412 outputs the image after the chroma key processing to the image processing unit 413.

画像処理部413は、クロマキー処理部412から供給された動画像を構成する各フレーム、または静止画像に写る利用者の背景に背景画像を合成する。画像処理部413は、各フレームに背景画像を合成した動画像をライブビュー画像として表示制御部415に出力する。   The image processing unit 413 combines the background image with each frame constituting the moving image supplied from the chroma key processing unit 412 or the background of the user reflected in the still image. The image processing unit 413 outputs a moving image obtained by synthesizing a background image to each frame to the display control unit 415 as a live view image.

画像処理部413は、5回の全ての撮影が終了したとき、5枚のそれぞれの静止画像に対して、目の大きさを調整するなどの画像処理を施す。画像処理部413は、画像処理によって写りを調整した静止画像を、撮影画像として編集処理部403に出力する。画像処理部413による写りの調整が、適宜、顔認識部414から供給された情報を参照して行われる。   The image processing unit 413 performs image processing such as adjusting the eye size on each of the five still images when all five shootings are completed. The image processing unit 413 outputs the still image whose image has been adjusted by image processing to the editing processing unit 403 as a captured image. The image adjustment by the image processing unit 413 is appropriately performed with reference to information supplied from the face recognition unit 414.

顔認識部414は、撮影制御部411から供給された撮影画像に写る顔を認識する。顔認識部414は、顔の輪郭の特徴情報、顔パーツの特徴情報などの、顔を認識するための情報を有している。顔認識部414による顔認識により、それぞれの撮影画像に写る各利用者の顔が識別される。   The face recognition unit 414 recognizes a face that appears in the captured image supplied from the imaging control unit 411. The face recognizing unit 414 has information for recognizing a face, such as face contour feature information and face part feature information. Face recognition by the face recognition unit 414 identifies each user's face in each captured image.

顔認識部414は、それぞれの撮影画像に写る各利用者の顔の位置を表す情報、目、鼻、口などの各顔パーツの位置を表す情報などを画像処理部413に出力する。   The face recognition unit 414 outputs information representing the position of each user's face in each captured image, information representing the position of each face part such as eyes, nose, and mouth to the image processing unit 413.

また、顔認識部414は、撮影が終了したとき、顔画像から抽出した、目、鼻、口などの顔パーツの画像を編集処理部403に出力する。   Further, the face recognition unit 414 outputs an image of face parts such as eyes, nose, and mouth extracted from the face image to the editing processing unit 403 when shooting is finished.

表示制御部415は、タッチパネルモニタ92の表示を制御する。例えば、表示制御部415は、撮影に関するガイダンスの画面をタッチパネルモニタ92に表示させる。また、表示制御部415は、画像処理部413から供給された情報に基づいて、タッチパネルモニタ92にライブビュー画面を表示させる。   The display control unit 415 controls display on the touch panel monitor 92. For example, the display control unit 415 causes the touch panel monitor 92 to display a guidance screen regarding shooting. In addition, the display control unit 415 displays a live view screen on the touch panel monitor 92 based on the information supplied from the image processing unit 413.

図17は、編集処理部403の機能構成例を示すブロック図である。   FIG. 17 is a block diagram illustrating a functional configuration example of the editing processing unit 403.

編集処理部403は、キャラクター画像生成部431、コンテンツ生成部432、編集部433、表示制御部434、印刷データ生成部435、および通信制御部436から構成される。撮影処理部402から出力された、編集対象としての撮影画像のデータは編集部433に入力され、それぞれの利用者の顔パーツの画像はキャラクター画像生成部431に入力される。キャラクター画像生成部431に対しては、事前選択処理部401から出力されたパーツ選択情報も入力される。   The edit processing unit 403 includes a character image generation unit 431, a content generation unit 432, an editing unit 433, a display control unit 434, a print data generation unit 435, and a communication control unit 436. The data of the captured image as the editing target output from the imaging processing unit 402 is input to the editing unit 433, and the image of each user's face part is input to the character image generation unit 431. The part selection information output from the pre-selection processing unit 401 is also input to the character image generation unit 431.

キャラクター画像生成部431は、撮影処理部402の顔認識部414から供給された顔パーツの画像に対して線画への変換処理、変形、色変換、サイズ調整などの画像処理を施す。   The character image generation unit 431 performs image processing such as conversion to line drawing, deformation, color conversion, and size adjustment on the face part image supplied from the face recognition unit 414 of the imaging processing unit 402.

キャラクター画像生成部431は、利用者が選択した顔の輪郭、髪型などをパーツ選択情報に基づいて特定する。キャラクター画像生成部431は、特定した輪郭の顔の画像、髪型の画像と、画像処理を施した顔パーツの画像とを合成し、キャラクター画像を生成する。キャラクター画像生成部431は、それぞれの利用者のキャラクター画像を生成し、編集処理部403の各部に出力する。   The character image generation unit 431 specifies the face outline and hairstyle selected by the user based on the part selection information. The character image generation unit 431 generates a character image by combining the face image and hairstyle image with the specified contour and the image of the face part subjected to image processing. The character image generation unit 431 generates a character image of each user and outputs it to each unit of the editing processing unit 403.

コンテンツ生成部432は、キャラクター画像生成部431により生成されたキャラクター画像に基づいてスタンプ画像を生成する。例えば、他の画像と合成するなどして、複数のスタンプ画像がそれぞれの利用者のキャラクター画像を用いて生成される。コンテンツ生成部432により生成されたスタンプ画像のデータは編集部433と表示制御部434に供給される。   The content generation unit 432 generates a stamp image based on the character image generated by the character image generation unit 431. For example, by combining with other images, a plurality of stamp images are generated using the character images of the respective users. The stamp image data generated by the content generation unit 432 is supplied to the editing unit 433 and the display control unit 434.

編集部433は、利用者による操作に応じて撮影画像の編集を行う。編集部433は、編集結果を表す情報を表示制御部434に出力し、編集画面の表示に反映させる。編集部433は、編集が終了した場合、撮影画像や、編集を施して得られた撮影画像である編集画像を印刷データ生成部435と通信制御部436に出力する。   The editing unit 433 edits the captured image in accordance with a user operation. The editing unit 433 outputs information representing the editing result to the display control unit 434 and reflects it on the display of the editing screen. When the editing is completed, the editing unit 433 outputs a captured image or an edited image that is a captured image obtained by performing editing to the print data generation unit 435 and the communication control unit 436.

表示制御部434は、タブレット内蔵モニタ131の表示を制御する。例えば、表示制御部434は、撮影画像の編集に用いられる編集画面をタブレット内蔵モニタ131に表示させる。編集画面には、適宜、キャラクター画像生成部431により生成されたキャラクター画像、コンテンツ生成部432により生成されたスタンプ画像を選択するときに操作されるボタンなども表示される。   The display control unit 434 controls display on the tablet built-in monitor 131. For example, the display control unit 434 causes the tablet built-in monitor 131 to display an editing screen used for editing the captured image. On the editing screen, a character image generated by the character image generation unit 431, buttons operated when selecting a stamp image generated by the content generation unit 432, and the like are also displayed.

印刷データ生成部435は、編集部433から供給された編集画像と、キャラクター画像生成部431により生成されたキャラクター画像を所定のレイアウトで配置し、印刷データを生成する。印刷データ生成部435は、印刷データを印刷処理部404に出力し、シール紙に印刷させる。   The print data generation unit 435 arranges the edited image supplied from the editing unit 433 and the character image generated by the character image generation unit 431 in a predetermined layout, and generates print data. The print data generation unit 435 outputs the print data to the print processing unit 404 and prints it on a sticker sheet.

通信制御部436は、通信部303を制御し、編集部433から供給された編集画像と、キャラクター画像生成部431により生成されたキャラクター画像をサーバに送信する。また、通信制御部436は、携帯送信用画像をサーバに送信する。携帯送信用画像は、シール紙には印刷されずに携帯端末で閲覧するための画像である。例えば、携帯送信用画像は、編集画面の表示中に、撮影画像を用いて編集部433により生成される。   The communication control unit 436 controls the communication unit 303 to transmit the edited image supplied from the editing unit 433 and the character image generated by the character image generating unit 431 to the server. Further, the communication control unit 436 transmits the mobile transmission image to the server. The image for portable transmission is an image for viewing on a portable terminal without being printed on the sticker paper. For example, the mobile transmission image is generated by the editing unit 433 using the captured image while the editing screen is displayed.

印刷データ生成部435と通信制御部436は、キャラクター画像をシール紙に印刷するとともにサーバに送信する出力部として機能する。   The print data generation unit 435 and the communication control unit 436 function as an output unit that prints a character image on a sticker sheet and transmits it to a server.

<写真シール作成装置の動作>
ここで、図18のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。
<Operation of photo sticker creation device>
Here, with reference to the flowchart of FIG. 18, operation | movement of the photograph sticker production apparatus 1 which provides a photograph sticker production game is demonstrated.

ステップS1において、事前選択処理部401は、所定の金額分の硬貨が投入されたか否かを、硬貨処理部321から供給される起動信号に基づいて判定し、硬貨が投入されたと判定するまで待機する。硬貨が投入されたとステップS1において判定された場合、処理はステップS2に進む。   In step S1, the preselection processing unit 401 determines whether or not a predetermined amount of coins has been inserted based on an activation signal supplied from the coin processing unit 321 and waits until it is determined that coins have been inserted. To do. If it is determined in step S1 that a coin has been inserted, the process proceeds to step S2.

ステップS2において、事前選択処理部401は、事前選択部308を制御することで、事前選択処理を行う。事前選択処理により、例えば、利用者の人数の選択、撮影空間A1で行われる撮影に関する撮影コースの選択、撮影画像の背景となる背景画像の選択、キャラクター画像の生成に用いられる特定のパーツの選択などが行われる。   In step S <b> 2, the preselection processing unit 401 performs the preselection process by controlling the preselection unit 308. By the pre-selection process, for example, selection of the number of users, selection of a shooting course related to shooting performed in the shooting space A1, selection of a background image as a background of the shooting image, selection of a specific part used for generation of a character image Etc. are performed.

撮影コースには、例えば、アップ撮影のみを行うコースと、アップ撮影および全身撮影を行うコースが用意されている。アップ撮影はアップ画像の撮影であり、全身撮影は全身画像の撮影である。   In the shooting course, for example, a course for performing only up-shooting and a course for performing up-shooting and whole-body shooting are prepared. The up shooting is a shooting of an up image, and the whole body shooting is a shooting of a whole image.

アップ撮影および全身撮影を行う後者のコースの場合、例えば、1〜3回目の撮影がアップ撮影となり、4回目と5回目の撮影が全身画像の撮影となる。事前選択処理の詳細については図19のフローチャートを参照して後述する。   In the latter course in which up-shooting and whole-body shooting are performed, for example, the first to third shootings are up-shooting, and the fourth and fifth shootings are whole-body images. Details of the pre-selection process will be described later with reference to the flowchart of FIG.

ステップS3において、撮影処理部402は、撮影部309を制御することで、撮影処理を行う。例えば、撮影処理部402は、カメラ91に取り込まれた動画像に基づいてライブビュー画面を表示させ、撮影空間A1にいる利用者を被写体として撮影を行う。撮影処理の詳細については図22のフローチャートを参照して後述する。   In step S <b> 3, the imaging processing unit 402 performs imaging processing by controlling the imaging unit 309. For example, the photographing processing unit 402 displays a live view screen based on a moving image captured by the camera 91, and photographs a user in the photographing space A1 as a subject. Details of the photographing process will be described later with reference to the flowchart of FIG.

ステップS4において、編集処理部403は、編集空間A2−1と編集空間A2−2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部310を制御することで、編集処理を行う。   In step S4, the editing processing unit 403 controls the editing unit 310 corresponding to the editing space of the editing space A2-1 and the editing space A2-2 that is the destination of the user who has finished the shooting process. Then, edit processing is performed.

例えば、編集処理部403は、タブレット内蔵モニタ131に編集画面を表示させ、撮影処理により得られた撮影画像に対して利用者に編集作業を行わせる。編集画面には、編集対象の撮影画像とともに、撮影画像に合成する合成用画像を選択するときに操作されるボタンなどが表示される。編集処理部403は、利用者の操作に応じて合成用画像を合成することによって撮影画像の編集を行い、編集画像を生成する。   For example, the editing processing unit 403 displays an editing screen on the tablet built-in monitor 131 and causes the user to perform editing work on the captured image obtained by the capturing process. The editing screen displays a photographed image to be edited and buttons operated when selecting a composite image to be combined with the photographed image. The edit processing unit 403 edits the captured image by compositing the compositing image in accordance with a user operation, and generates an edited image.

撮影画像の編集後、編集処理部403は、分割数の選択に用いられる画面、サーバに送信する画像の選択に用いられる画面などの各種の画面をタブレット内蔵モニタ131に表示する。編集処理部403は、各種の画面に対する利用者の操作に応じて処理を行う。編集処理の詳細については図30のフローチャートを参照して後述する。   After editing the captured image, the edit processing unit 403 displays various screens such as a screen used for selecting the number of divisions and a screen used for selecting an image to be transmitted to the server on the tablet built-in monitor 131. The edit processing unit 403 performs processing according to user operations on various screens. Details of the editing process will be described later with reference to the flowchart of FIG.

ステップS5において、印刷処理部404は、プリンタ351を制御することで、印刷処理を行う。印刷処理部404は、編集処理部403により生成された印刷データをプリンタ351に出力し、所定のレイアウトで配置された編集画像をシール紙に印刷する。   In step S <b> 5, the print processing unit 404 performs print processing by controlling the printer 351. The print processing unit 404 outputs the print data generated by the edit processing unit 403 to the printer 351, and prints the edited image arranged in a predetermined layout on sticker paper.

印刷が終了した場合、ステップS6において、プリンタ351は、画像が印刷されたシール紙をシール紙排出口161に排出し、処理を終了させる。   When the printing is completed, in step S6, the printer 351 discharges the sticker paper on which the image is printed to the sticker paper discharge port 161, and ends the processing.

<事前選択処理>
図19のフローチャートを参照して、図18のステップS2において行われる事前選択処理について説明する。
<Pre-selection process>
With reference to the flowchart of FIG. 19, the pre-selection process performed in step S2 of FIG. 18 will be described.

ステップS11において、事前選択処理部401は、人数コース選択画面をタッチパネルモニタ71に表示させる。人数コース選択画面は、利用者の人数の選択に用いられる画面である。例えば、2人であることを選択するときに操作されるボタンと、3人以上であることを選択するときに操作されるボタンが人数コース選択画面に表示される。事前選択処理部401は、利用者による選択内容を表す情報を管理する。   In step S <b> 11, the pre-selection processing unit 401 displays a number of people course selection screen on the touch panel monitor 71. The number of people course selection screen is a screen used for selecting the number of users. For example, a button operated when selecting two persons and a button operated when selecting three or more persons are displayed on the number of course selection screen. The pre-selection processing unit 401 manages information representing the content selected by the user.

利用者の人数が選択された後、ステップS12において、事前選択処理部401は、撮影コース選択画面をタッチパネルモニタ71に表示させる。撮影コース選択画面は、撮影コースの選択に用いられる画面である。上述した例の場合、アップ撮影のみを行うコースを選択するときに操作されるボタンと、アップ撮影および全身撮影を行うコースを選択するときに操作されるボタンが撮影コース選択画面に表示される。   After the number of users is selected, the pre-selection processing unit 401 displays a shooting course selection screen on the touch panel monitor 71 in step S12. The shooting course selection screen is a screen used for selecting a shooting course. In the case of the above-described example, a button operated when selecting a course for performing up-shooting alone and a button operated when selecting a course for performing up-shooting and whole body shooting are displayed on the shooting course selection screen.

撮影コースが選択された後、ステップS13において、事前選択処理部401は、背景選択画面をタッチパネルモニタ71に表示させる。背景選択画面は、背景画像の選択に用いられる画面である。   After the shooting course is selected, the pre-selection processing unit 401 displays a background selection screen on the touch panel monitor 71 in step S13. The background selection screen is a screen used for selecting a background image.

背景画像が選択された後、ステップS14において、事前選択処理部401は、キャラクター画像のガイダンスをタッチパネルモニタ71に表示させる。タッチパネルモニタ71には、キャラクター画像の用途などの紹介画面が表示される。   After the background image is selected, the pre-selection processing unit 401 displays the guidance for the character image on the touch panel monitor 71 in step S14. On the touch panel monitor 71, an introduction screen for the purpose of the character image is displayed.

ステップS15において、事前選択処理部401は、パーツ選択画面をタッチパネルモニタ71に表示させる。パーツ選択画面は、キャラクター画像の生成に用いる特定のパーツの選択に用いられる画面である。   In step S <b> 15, the pre-selection processing unit 401 displays a part selection screen on the touch panel monitor 71. The part selection screen is a screen used for selecting a specific part used for generating a character image.

図20は、パーツ選択画面の例を示す図である。   FIG. 20 is a diagram illustrating an example of a parts selection screen.

図20の画面の上方には、利用者の性別の選択を促すメッセージが表示される。画面略中央には、女性を選択するときに操作されるボタン501と、男性を選択するときに操作されるボタン502が並べて表示される。特定のパーツの選択は、性別を選択することから行われる。   A message prompting the user to select the gender is displayed at the top of the screen of FIG. In the approximate center of the screen, a button 501 operated when selecting a woman and a button 502 operated when selecting a man are displayed side by side. Selection of a specific part is performed by selecting a gender.

図20の画面を用いた性別の選択が2人の利用者のそれぞれについて行われる。画面左上には、1人目の性別の選択中であることを表す情報が表示されている。2人分の性別が選択された後、タッチパネルモニタ71の表示は図21の画面に切り替えられる。   Gender selection using the screen of FIG. 20 is performed for each of the two users. Information indicating that the first gender is being selected is displayed at the upper left of the screen. After the sexes for two people are selected, the display on the touch panel monitor 71 is switched to the screen of FIG.

図21の画面の上方には、パーツの選択を促すメッセージが表示される。画面左側には、略正方形の領域である選択結果表示領域511が形成される。選択結果表示領域511には、画面右側の表示を用いて選択されたパーツを組み合わせたイラストが表示される。   A message prompting selection of parts is displayed at the top of the screen of FIG. On the left side of the screen, a selection result display area 511 that is a substantially square area is formed. In the selection result display area 511, an illustration combining the parts selected using the display on the right side of the screen is displayed.

画面右側には、特定のパーツの選択に用いられる画像の表示領域であるパーツ選択領域521乃至523が形成される。図21の例においては、特定のパーツとして、顔の輪郭、髪型、オプションの3種類のパーツの選択が行われる。横長長方形のパーツ選択領域521乃至523には、それぞれ、顔の輪郭、髪型、オプションの選択候補を表す画像が並べて表示される。   On the right side of the screen, part selection areas 521 to 523, which are display areas for images used for selecting specific parts, are formed. In the example of FIG. 21, three types of parts, that is, a face outline, a hairstyle, and an option, are selected as specific parts. In the horizontally-long rectangular part selection areas 521 to 523, images representing face outlines, hairstyles, and option selection candidates are displayed side by side.

パーツ選択領域521には、卵形の輪郭、卵形と面長を組み合わせた輪郭、丸顔の輪郭、および、丸顔と面長を組み合わせた輪郭の4種類の輪郭を表すイラストと文字が表示される。利用者は、4種類の輪郭の中から好みの輪郭を選択する。   In the part selection area 521, illustrations and characters representing four types of contours are displayed: an egg-shaped contour, a contour combining an egg shape and a surface length, a contour of a round face, and a contour combining a round face and a surface length. Is done. The user selects a favorite contour from the four types of contours.

パーツ選択領域522は、領域522Aと領域522Bに分けられる。領域522Aには、8種類の髪型を表すイラストが2行4列に並べて表示され、領域522Bには、10種類の髪の色を表すボタンが5行2列に並べて表示される。   The parts selection area 522 is divided into an area 522A and an area 522B. In the region 522A, illustrations representing eight types of hairstyles are displayed side by side in two rows and four columns, and in the region 522B, buttons representing ten types of hair colors are displayed side by side in five rows and two columns.

利用者は、領域522Aのイラストを押下すことによって髪型を選択し、領域522Aのボタンを押下すことによって髪の色を選択する。領域522Aに表示されるイラストの髪の色は、領域522Bのボタンを用いて色が変更されることに応じて切り替えられる。また、領域522Aの下に配置されている左向きの三角形の画像と右向きの三角形の画像はそれぞれボタンになっている。これらのボタンが押下されたとき、表示中の髪型と異なる髪型を表すイラストが表示される。   The user selects the hairstyle by pressing the illustration of the area 522A, and selects the hair color by pressing the button of the area 522A. The hair color of the illustration displayed in the area 522A is switched according to the color being changed using the button in the area 522B. Further, the left-pointing triangle image and the right-pointing triangle image arranged under the area 522A are buttons. When these buttons are pressed, an illustration representing a hairstyle different from the currently displayed hairstyle is displayed.

図21の例においては、付け耳やリボンなどの髪に付けるアクセサリー、眼鏡などをオプションのパーツとして選択することができるようになっている。パーツ選択領域523は、オプションを選択しないときに押下されるイラストの他に、各種のオプションのパーツを表すイラストが表示される。   In the example of FIG. 21, an accessory attached to hair such as an attachment ear or a ribbon, glasses, and the like can be selected as optional parts. In the parts selection area 523, illustrations representing various optional parts are displayed in addition to illustrations pressed when no option is selected.

選択結果表示領域511の下には、パーツの選択を確定するときに操作される円形のOKボタン524が表示される。このような画面を用いたパーツの選択が2人の利用者のそれぞれについて行われる。選択結果表示領域511の左上には、1人目のパーツの選択中であることを表す情報が表示されている。   Below the selection result display area 511, a circular OK button 524 that is operated when confirming the selection of parts is displayed. Selection of parts using such a screen is performed for each of the two users. In the upper left of the selection result display area 511, information indicating that the first part is being selected is displayed.

例えばパーツ選択領域522とパーツ選択領域523に表示されるパーツの種類が、直前に表示された画面を用いて選択された性別に応じて切り替えられる。後述する写りの調整に用いられるパラメータも性別に応じて切り替えられる。男性が選択された場合、提示される落書きコンテンツのコンテンツ数が少なくなるといったように、各種のパラメータを性別に応じて変えることが可能である。   For example, the types of parts displayed in the part selection area 522 and the part selection area 523 are switched according to the sex selected using the screen displayed immediately before. Parameters used for adjusting the reflection, which will be described later, are also switched according to gender. When a male is selected, various parameters can be changed according to sex such that the number of graffiti content presented is reduced.

図19の説明に戻り、ステップS16において、事前選択処理部401は、各利用者のパーツの選択内容を表すパーツ選択情報を保存する。ステップS14乃至S16の処理は、利用者の人数が2人であるとして選択されている場合に行われる。   Returning to the description of FIG. 19, in step S <b> 16, the pre-selection processing unit 401 stores part selection information indicating the selection contents of each user's part. Steps S14 to S16 are performed when the number of users is selected as two.

ステップS17において、事前選択処理部401は、撮影空間A1への移動を促す案内画面をタッチパネルモニタ71に表示させる。事前選択作業を終えた利用者は、案内画面の表示に従って撮影空間A1に入り、撮影作業を始める。その後、図18のステップS2に戻り、それ以降の処理が行われる。   In step S <b> 17, the pre-selection processing unit 401 causes the touch panel monitor 71 to display a guidance screen that prompts the user to move to the shooting space A <b> 1. The user who has finished the pre-selection work enters the photographing space A1 according to the display on the guidance screen and starts photographing work. Thereafter, the process returns to step S2 in FIG. 18, and the subsequent processing is performed.

<撮影処理>
次に、図22のフローチャートを参照して、図18のステップS3において行われる撮影処理について説明する。
<Shooting process>
Next, with reference to the flowchart of FIG. 22, the imaging process performed in step S3 of FIG. 18 will be described.

ステップS31において、撮影処理部402の表示制御部415(図16)は、ライブビュー画面の表示を開始する。すなわち、撮影制御部411によりカメラ91が制御され、動画像の取り込みが開始される。動画像の取り込みは、例えば、アップ画像と同じ画角の画像を撮影する状態に調整された後に行われる。カメラ91により取り込まれた動画像は、表示制御部415に出力され、ライブビュー画面の表示に用いられる。   In step S31, the display control unit 415 (FIG. 16) of the imaging processing unit 402 starts displaying the live view screen. That is, the camera 91 is controlled by the photographing control unit 411, and moving image capturing is started. For example, the moving image is captured after being adjusted to a state where an image having the same angle of view as that of the up image is captured. The moving image captured by the camera 91 is output to the display control unit 415 and used for displaying the live view screen.

ライブビュー画面の表示を開始してから所定の時間が経過した場合、ステップS32において、撮影制御部411は個人認識用の撮影を行う。個人認識用の撮影により得られた画像は、それぞれの利用者の顔を認識することに用いられる。また、個人認識用の撮影により得られた画像は、キャラクター画像の生成にも用いられる。   If a predetermined time has elapsed since the start of the live view screen display, in step S32, the shooting control unit 411 performs shooting for personal recognition. An image obtained by photographing for personal recognition is used for recognizing each user's face. An image obtained by photographing for personal recognition is also used for generating a character image.

個人認識用の撮影は1回のみ行われる。すなわち、個人認識用の1回の撮影は、利用者の顔の認識用の撮影と、キャラクター画像の生成用の撮影とを兼ねた撮影となる。   Photographing for personal recognition is performed only once. That is, one shooting for personal recognition is shooting that combines shooting for recognition of a user's face and shooting for generating a character image.

このように、1回の撮影が2つの用途を兼ねることにより、全体の撮影回数を増やす必要がない。全体の撮影回数を抑えることにより、一連のゲームにかかる時間を抑えることができ、ゲームの回転率を向上させることが可能になる。   In this way, since one shooting serves two purposes, it is not necessary to increase the total number of shootings. By suppressing the total number of shootings, the time required for a series of games can be suppressed, and the game rotation rate can be improved.

図23は、個人認識用の撮影の前にタッチパネルモニタ92に表示されるライブビュー画面の例を示す図である。   FIG. 23 is a diagram showing an example of a live view screen displayed on the touch panel monitor 92 before shooting for personal recognition.

図23に示す画面の略中央には、キャラクター画像用の撮影を行うことを案内するメッセージが表示されている。図23のメッセージでいう「プリキャラミー」はキャラクター画像のことを意味する。   In the approximate center of the screen shown in FIG. 23, a message for guiding the character image shooting is displayed. “Pre-character” in the message of FIG. 23 means a character image.

メッセージの上には、顔画像表示領域541と顔画像表示領域542が並べて形成され、それぞれに利用者の顔画像が表示される。顔画像表示領域541,542には、それぞれ、顔の位置を合わせるときの基準として用いられるガイド画像541A,542Aが表示される。2人の利用者は、縦長楕円形のガイド画像541A,542Aに自分の顔が収まるように位置を調整し、撮影が行われるのを待つ。   On the message, a face image display area 541 and a face image display area 542 are formed side by side, and the face image of the user is displayed on each of them. In the face image display areas 541 and 542, guide images 541A and 542A used as a reference for aligning the face positions are displayed, respectively. The two users adjust their positions so that their faces fit in the vertically elliptical guide images 541A and 542A, and wait for shooting.

図24は、顔画像の切り出しの例を示す図である。   FIG. 24 is a diagram illustrating an example of clipping a face image.

図24に示す画像は、カメラ91により取り込まれた動画像を構成する1フレームの画像である。表示制御部415は、カメラ91により撮影された画像から、固定の位置に設定された枠F1で示す範囲を切り出して顔画像表示領域541に表示させ、枠F2で示す範囲を切り出して顔画像表示領域542に表示させる。顔認識により、切り出し範囲を規定する枠の位置、大きさ、数が変更されるようにしてもよい。   The image shown in FIG. 24 is an image of one frame constituting a moving image captured by the camera 91. The display control unit 415 cuts out the range indicated by the frame F1 set at a fixed position from the image taken by the camera 91 and displays it in the face image display area 541, and cuts out the range indicated by the frame F2 and displays the face image. It is displayed in the area 542. The position, size, and number of frames that define the cutout range may be changed by face recognition.

個人認識用の撮影前、顔画像表示領域541,542には、それぞれ、図25に示すように、撮影までの時間を表すカウントダウンが表示され、その後、撮影が行われる。個人認識用の撮影によって得られた静止画像は顔認識部414に供給される。   Before photographing for personal recognition, the face image display areas 541 and 542 display countdowns representing time until photographing as shown in FIG. 25, and then photographing is performed. A still image obtained by shooting for personal recognition is supplied to the face recognition unit 414.

ステップS33において、顔認識部414は、撮影制御部411から供給された静止画像に基づいて、利用者のそれぞれの顔を認識する。顔認識部414は、撮影制御部411から供給された1枚の静止画像から、図24を参照して説明した範囲を切り出すことによって2枚の顔画像を生成し、それぞれの顔画像に写る顔を認識する。   In step S <b> 33, the face recognition unit 414 recognizes each face of the user based on the still image supplied from the shooting control unit 411. The face recognizing unit 414 generates two face images by cutting out the range described with reference to FIG. 24 from one still image supplied from the shooting control unit 411, and the face reflected in each face image. Recognize

顔認識部414による顔認識により、例えば、顔の位置と、目、鼻、口などの各顔パーツの位置が特定される。顔認識部414は、各利用者の顔の位置を表す情報、目、鼻、口などの各顔パーツの位置を表す情報を画像処理部413に出力する。顔認識部414は、認識した顔の画像を表示制御部415にも出力する。   By the face recognition by the face recognition unit 414, for example, the position of the face and the position of each face part such as eyes, nose and mouth are specified. The face recognition unit 414 outputs information representing the position of each user's face and information representing the position of each face part such as eyes, nose, and mouth to the image processing unit 413. The face recognition unit 414 also outputs the recognized face image to the display control unit 415.

ステップS34において、表示制御部415は、個人認識用の撮影の結果をタッチパネルモニタ92に表示させる。   In step S34, the display control unit 415 causes the touch panel monitor 92 to display the result of photographing for personal recognition.

図26は、撮影結果表示画面の例を示す図である。   FIG. 26 is a diagram illustrating an example of a photographing result display screen.

図26に示す画面には、縦長長方形の顔画像表示領域551と顔画像表示領域552が離して形成される。顔画像表示領域551には、認識された1人目の利用者の顔画像が表示され、顔画像表示領域552には、認識された2人目の利用者の顔画像が表示される。   In the screen shown in FIG. 26, a vertically long face image display area 551 and a face image display area 552 are formed apart from each other. The face image display area 551 displays the recognized face image of the first user, and the face image display area 552 displays the recognized face image of the second user.

顔画像表示領域551の下には、1人目の利用者によるパーツの選択内容を表す画像である選択パーツ画像553が表示される。また、顔画像表示領域552の下には、1人目の利用者によるパーツの選択内容を表す画像である選択パーツ画像554が表示される。選択パーツ画像553と選択パーツ画像554は、事前選択処理部401から供給されたパーツ選択情報に基づいて表示される。   Below the face image display area 551, a selected part image 553, which is an image representing the contents of part selection by the first user, is displayed. Also, under the face image display area 552, a selected part image 554, which is an image representing the selection contents of the part by the first user, is displayed. The selected part image 553 and the selected part image 554 are displayed based on the part selection information supplied from the pre-selection processing unit 401.

選択パーツ画像553と選択パーツ画像554の間には、選択パーツ画像553と選択パーツ画像554を入れ替えるときに操作される入れ替えボタン555が表示される。図26の状態で入れ替えボタン555が1回押下された場合、顔画像表示領域551の下に選択パーツ画像554が表示され、顔画像表示領域552の下に選択パーツ画像553が表示される。   Between the selected part image 553 and the selected part image 554, an exchange button 555 that is operated when the selected part image 553 and the selected part image 554 are exchanged is displayed. When the replace button 555 is pressed once in the state of FIG. 26, the selected part image 554 is displayed below the face image display area 551 and the selected part image 553 is displayed below the face image display area 552.

例えば顔認識部414においては、顔画像表示領域551に顔が表示されている1人目の利用者と、顔画像表示領域551の下に表示されているパーツの選択内容とが紐付けて管理される。また、顔画像表示領域552に顔が表示されている2人目の利用者と、顔画像表示領域552の下に表示されているパーツの選択内容とが紐付けて管理される。   For example, in the face recognition unit 414, the first user whose face is displayed in the face image display area 551 and the selected content of the parts displayed under the face image display area 551 are managed in association with each other. The Further, the second user whose face is displayed in the face image display area 552 and the selected content of the parts displayed under the face image display area 552 are managed in association with each other.

例えば、顔画像表示領域551に顔が表示されている1人目の利用者が、事前選択処理時に2人目の利用者としてパーツの選択を行っている場合、その選択内容を表す画像は顔画像表示領域552の下に表示されることになり、1人目の利用者の顔と、その利用者によるパーツの選択内容とが対応していない。この場合、顔画像表示領域552に顔が表示されている2人目の利用者によるパーツの選択内容を表す画像は顔画像表示領域551の下に表示されることになり、やはり、2人目の利用者の顔と、その利用者によるパーツの選択内容とが対応していない。   For example, when the first user whose face is displayed in the face image display area 551 selects a part as the second user during the pre-selection process, the image representing the selected content is the face image display. It is displayed below the area 552, and the face of the first user does not correspond to the content of part selection by the user. In this case, the image representing the selection contents of the part by the second user whose face is displayed in the face image display area 552 is displayed under the face image display area 551. The user's face does not correspond to the selected content of the part by the user.

図26に示す画面は、利用者と、それぞれの利用者によるパーツの選択内容との紐付けの確認に用いられる画面となる。   The screen shown in FIG. 26 is a screen used for confirming the association between the user and the selected content of the parts by each user.

2人の利用者は、それぞれ、自分の顔が表示されている領域の下に、自分の選択内容を表す画像が表示されている場合、入れ替えボタン555の下に表示されているOKボタン556を押下し、利用者とパーツの選択内容との対応関係を決定する。   Each of the two users clicks an OK button 556 displayed below the replace button 555 when an image representing their selection is displayed below the area where their faces are displayed. Press to determine the correspondence between the user and the part selection.

このように、撮影処理においては、アップ画像や全身画像の撮影前、利用者の顔の認識と、それぞれの利用者が選択したパーツとの紐付けが行われる。   In this way, in the photographing process, before the up image or the whole body image is photographed, the user's face is recognized and the parts selected by each user are linked.

なお、顔の認識が失敗した場合、顔を認識できなかった利用者のキャラクター画像として、図27に示すようなデフォルトのキャラクター画像が生成される(割り当てられる)。写真シール作成装置1には、デフォルトのキャラクター画像が予め用意されている。利用者の人数が2人である場合、必ず、2種類のキャラクター画像が生成されることになる。   If the face recognition fails, a default character image as shown in FIG. 27 is generated (assigned) as the character image of the user who could not recognize the face. The photo sticker creating apparatus 1 is prepared with a default character image in advance. When the number of users is two, two types of character images are always generated.

図23に示すようなライブビュー画面において、利用者の顔が顔画像表示領域541,542に収まっていない状態で撮影が行われた場合や、利用者が正面を向いていない状態で撮影が行われた場合などに、顔の認識が失敗することがある。顔を認識できなかった利用者のキャラクター画像としてデフォルトのキャラクター画像を割り当てることにより、キャラクター画像として何も生成されない場合に比べて、顔を認識できなかった利用者のがっかり感を抑えることができる。   In the live view screen as shown in FIG. 23, shooting is performed when the user's face is not within the face image display areas 541 and 542, or when the user is not facing the front. Face recognition may fail. By assigning the default character image as the character image of the user who could not recognize the face, it is possible to suppress the disappointment of the user who could not recognize the face compared to the case where nothing is generated as a character image.

事前選択処理において利用者の人数が2人として選択されたものの、写真シール作成装置1を実際に利用しているのが1人である場合も、その1人の利用者のキャラクター画像と、1つのデフォルトのキャラクター画像が生成される。   Even if the number of users in the pre-selection process is selected as two, but only one person actually uses the photo sticker creating apparatus 1, the character image of the one user and 1 Two default character images are generated.

利用者とそれぞれの利用者が選択したパーツの紐付けが行われた場合、ステップS35において、表示制御部415は、通常撮影用のライブビュー画面の表示を開始する。通常撮影は、個人認識用の撮影ではなく、アップ画像または全身画像の撮影である。   When the user and the parts selected by each user are linked, in step S35, the display control unit 415 starts displaying the live view screen for normal shooting. The normal shooting is not an image for personal recognition but an up image or a whole body image.

カメラ91により取り込まれた動画像の各フレームに対しては、クロマキー処理部412によりクロマキー処理が施された後、画像処理部413により背景画像が合成される。背景画像が合成された動画像が、表示制御部415に出力され、ライブビュー画面の表示に用いられる。   Each frame of the moving image captured by the camera 91 is subjected to chroma key processing by the chroma key processing unit 412 and then a background image is synthesized by the image processing unit 413. A moving image in which the background image is combined is output to the display control unit 415 and used to display the live view screen.

図28は、通常撮影前のライブビュー画面の例を示す図である。   FIG. 28 is a diagram illustrating an example of a live view screen before normal shooting.

ライブビュー表示画面の中央には、上方に寄せてライブビュー表示領域571が配置される。ライブビュー表示領域571には、カメラ91により取り込まれた動画像がライブビュー画像として表示される。   In the center of the live view display screen, a live view display area 571 is arranged close to the top. In the live view display area 571, a moving image captured by the camera 91 is displayed as a live view image.

ライブビュー表示領域571の下には、画像表示領域572−1乃至572−5が横に並べて配置される。画像表示領域572−1乃至572−5には、それぞれ、各回の撮影により得られた撮影画像が撮影直後から表示される。画像表示領域572−1乃至572−5の表示から、利用者は撮影結果を確認することができる。   Below the live view display area 571, image display areas 572-1 to 572-5 are arranged side by side. In the image display areas 572-1 to 572-5, captured images obtained by the respective capturing are displayed immediately after capturing. From the display of the image display areas 572-1 to 572-5, the user can confirm the photographing result.

アップ撮影のみを行うコースが選択されている場合、画像表示領域572−1乃至572−5には、1回目から5回目までのアップ撮影の結果がそれぞれ表示される。一方、アップ撮影および全身撮影を行うコースが選択されている場合、画像表示領域572−1乃至572−3には、1回目から3回目までのアップ撮影の結果がそれぞれ表示され、画像表示領域572−1,572−2には、4回目と5回目の全身撮影の結果がそれぞれ表示される。   When a course for performing only up-shooting is selected, the results of up-shooting from the first time to the fifth time are displayed in the image display areas 572-1 to 572-5, respectively. On the other hand, when the course for performing the up-shooting and the whole-body shooting is selected, the results of the up-shooting from the first time to the third time are displayed in the image display areas 572-1 to 572-3, respectively. In -1, 572-2, the results of the fourth and fifth whole body imaging are respectively displayed.

図28に示すライブビュー画面は、1回目のアップ撮影の前に表示される画面である。ライブビュー画像には、2人の利用者の顔と上半身が大きく映っている。次の撮影が1回目の撮影であることを表すように、左端の画像表示領域572−1の枠が強調表示されている。ライブビュー表示領域571の右側には、撮影までのカウントダウンを表す数字が表示される。   The live view screen shown in FIG. 28 is a screen displayed before the first up-shooting. The live view image shows the face and upper body of the two users. The frame of the image display area 572-1 at the left end is highlighted so that the next shooting is the first shooting. On the right side of the live view display area 571, a number indicating a countdown until shooting is displayed.

利用者は、撮影が行われる前、このようにして表示されるライブビュー画像を見て、立ち位置を調整したり、ポーズを確認したりする。   Before shooting, the user looks at the live view image displayed in this way, adjusts the standing position, and checks the pose.

撮影のタイミングになったとき、ステップS36において、撮影制御部411は、アップ画像の撮影を行う。撮影によって得られたアップ画像に対しては、クロマキー処理部412によりクロマキー処理が施され、画像処理部413により背景画像が合成される。背景画像が合成されたアップ画像が、表示制御部415に出力され、撮影結果としてライブビュー画面に表示される。   When it is time to shoot, in step S36, the photographic control unit 411 shoots an up image. The up key obtained by shooting is subjected to chroma key processing by the chroma key processing unit 412, and a background image is synthesized by the image processing unit 413. The up image combined with the background image is output to the display control unit 415 and displayed on the live view screen as a photographing result.

また、撮影によって得られたアップ画像に対しては、顔認識部414により顔認識が行われる。アップ画像に写るそれぞれの利用者の顔の位置を表す情報などが、顔認識部414から画像処理部413に出力される。   Further, face recognition is performed by the face recognition unit 414 on the up image obtained by photographing. Information representing the position of each user's face in the up image is output from the face recognition unit 414 to the image processing unit 413.

ステップS37において、撮影制御部411は、撮影終了か否かを判定する。5回の撮影が終了していないことから、撮影終了ではないとステップS37において判定された場合、処理はステップS38に進む。   In step S37, the shooting control unit 411 determines whether shooting is finished. If it is determined in step S37 that the shooting has not been completed because the five shootings have not been completed, the process proceeds to step S38.

ステップS38において、撮影制御部411は、次の撮影がアップ撮影か否かを判定する。   In step S38, the shooting control unit 411 determines whether or not the next shooting is an up shooting.

次の撮影がアップ撮影であるとステップS38において判定された場合、ステップS36に戻り、ライブビュー画面の表示が続けられ、アップ撮影が繰り返される。   If it is determined in step S38 that the next shooting is an up-shooting, the process returns to step S36, the display of the live view screen is continued, and the up-shooting is repeated.

一方、撮影終了であるとステップS37において判定された場合、処理はステップS39に進む。アップ画像の撮影のみを行うコースが選択された場合、全身画像の撮影は行われない。   On the other hand, if it is determined in step S37 that the shooting has ended, the process proceeds to step S39. When a course for only taking an up image is selected, a whole body image is not taken.

ステップS39において、表示制御部415は、写り調整画面をタッチパネルモニタ92に表示させる。写り調整画面を用いて、それぞれの利用者が、撮影画像に写る自分の目の大きさを選択する。   In step S39, the display control unit 415 causes the touch panel monitor 92 to display a reflection adjustment screen. Using the image adjustment screen, each user selects the size of his / her eyes appearing in the captured image.

図29は、写り調整画面の例を示す図である。   FIG. 29 is a diagram illustrating an example of a reflection adjustment screen.

写り調整画面は、領域581Lと領域581Rから構成される。領域581Lは、1人目の利用者の写りの調整に用いられ、領域581Rは、2人目の利用者の写りの調整に用いられる。図29の例においては、写りの調整を1人ずつ行うようになっており、領域581Rはグレーアウトした状態で表示されている。   The image adjustment screen includes an area 581L and an area 581R. The region 581L is used for adjusting the reflection of the first user, and the region 581R is used for adjusting the reflection of the second user. In the example of FIG. 29, the image adjustment is performed one by one, and the region 581R is displayed in a grayed out state.

領域581Lの中央上方の領域582Lには、個人認識用の撮影によって得られた1人目の利用者の顔画像が表示される。   In the area 582L above the center of the area 581L, the face image of the first user obtained by photographing for personal recognition is displayed.

領域582Lの下には、目の大きさを選択するときに操作されるボタン583Lが表示される。ボタン583Lは3つのボタンから構成されており、利用者が、30%、70%、および100%の3段階の大きさの中から好みの大きさを選択することができるようになされている。ボタン583Lの下には、目の大きさを決定するときに操作されるOKボタン584Lが表示される。   Below the area 582L, a button 583L operated when selecting the size of the eyes is displayed. The button 583L is composed of three buttons, and the user can select a desired size from three sizes of 30%, 70%, and 100%. Below the button 583L, an OK button 584L operated when determining the size of the eyes is displayed.

このような領域581Lの表示を用いて1人目の利用者が目のサイズを選択した場合、領域581Lの表示はグレーアウトする。領域581Lと同様の構成を有する領域581Rの表示を用いて、2人目の利用者が目のサイズの選択を行う。   When the first user selects the eye size using the display of the region 581L, the display of the region 581L is grayed out. Using the display of the area 581R having the same configuration as the area 581L, the second user selects the eye size.

ステップS40において、画像処理部413は、利用者により選択された大きさになるように、撮影画像に写る利用者の目の大きさを調整する。   In step S40, the image processing unit 413 adjusts the size of the user's eyes that appear in the captured image so as to be the size selected by the user.

5枚のそれぞれの撮影画像に写っている1人目の利用者の顔が顔認識部414による認識結果に基づいて特定され、その1人目の利用者の目の大きさが、ボタン583Lを用いて選択された大きさになるように画像処理部413により調整される。また、5枚のそれぞれの撮影画像に写っている2人目の利用者の顔が顔認識部414による認識結果に基づいて特定され、その2人目の利用者の目の大きさが、ボタン583Rを用いて選択された大きさになるように画像処理部413により調整される。   The face of the first user shown in each of the five captured images is specified based on the recognition result by the face recognition unit 414, and the size of the first user's eyes is determined using the button 583L. The image processing unit 413 adjusts the selected size. Further, the face of the second user shown in each of the five photographed images is specified based on the recognition result by the face recognition unit 414, and the size of the second user's eyes is determined by pressing the button 583R. The image processing unit 413 adjusts the size to be selected by using the image processing unit 413.

写りの調整が行われた後、図18のステップS3に戻り、それ以降の処理が行われる。   After the image adjustment is performed, the process returns to step S3 in FIG. 18, and the subsequent processing is performed.

一方、ステップS38において、次の撮影がアップ撮影ではなく、全身撮影であると判定された場合、処理はステップS41に進む。アップ撮影および全身撮影を行うコースが選択されている場合、4回目と5回目の撮影が全身撮影となる。   On the other hand, if it is determined in step S38 that the next shooting is not the up shooting but the whole body shooting, the process proceeds to step S41. When the course for performing the up-shooting and the whole body shooting is selected, the fourth and fifth shootings are the whole body shooting.

ステップS41において、撮影制御部411は、カメラ91を制御し、全身画像を撮影するための画角の調整を行う。画角の調整が行われた後、ライブビュー画面には、カメラ91により取り込まれた動画像を用いて、利用者の全身が映るライブビュー画面の表示が開始される。   In step S41, the photographing control unit 411 controls the camera 91 to adjust the angle of view for photographing a whole body image. After the angle of view is adjusted, display of the live view screen on which the whole body of the user is reflected is started on the live view screen using the moving image captured by the camera 91.

撮影のタイミングになったとき、ステップS42において、撮影制御部411は、全身画像の撮影を行う。撮影によって得られた全身画像に対しては、クロマキー処理部412によりクロマキー処理が施され、画像処理部413により背景画像が合成される。背景画像が合成された全身画像が、表示制御部415に出力され、撮影結果としてライブビュー画面に表示される。   When it is time for photographing, in step S42, the photographing control unit 411 shoots a whole body image. The whole body image obtained by photographing is subjected to chroma key processing by the chroma key processing unit 412 and a background image is synthesized by the image processing unit 413. The whole body image in which the background image is synthesized is output to the display control unit 415, and is displayed on the live view screen as a photographing result.

ステップS43において、撮影制御部411は、撮影終了か否かを判定する。5回目の撮影が終了していないことから、撮影終了ではないとステップS43において判定された場合、ステップS42に戻り、それ以降の処理が行われる。   In step S43, the shooting control unit 411 determines whether or not shooting has ended. If it is determined in step S43 that the shooting has not ended since the fifth shooting has not been completed, the process returns to step S42 and the subsequent processing is performed.

一方、撮影終了であるとステップS43において判定された場合、処理はステップS39に進み、写り調整画面が表示された後、ステップS40において写りの調整が行われる。その後、図18のステップS3に戻り、それ以降の処理が行われる。   On the other hand, if it is determined in step S43 that the shooting has been completed, the process proceeds to step S39, and after the image adjustment screen is displayed, image adjustment is performed in step S40. Thereafter, the process returns to step S3 in FIG. 18, and the subsequent processing is performed.

以上のように、利用者の人数が2人として選択された場合、2つのキャラクター画像が生成される。   As described above, when the number of users is selected as two, two character images are generated.

個人認識用の撮影によって2人の顔の認識が成功した場合、撮影によって得られた画像を用いて、それぞれの利用者の2つのキャラクター画像が生成される。   When two faces are successfully recognized by photographing for personal recognition, two character images of each user are generated using the images obtained by photographing.

また、1人の顔の認識が成功し、もう1人の顔の認識が失敗した場合、撮影によって得られた画像を用いて、顔の認識が成功した利用者の1つのキャラクター画像が生成され、顔の認識が失敗した利用者用として、デフォルトのキャラクター画像が生成される。   If the recognition of one face succeeds and the recognition of the other face fails, one character image of the user who has successfully recognized the face is generated using the image obtained by shooting. A default character image is generated for a user whose face recognition has failed.

さらに、2人の顔の認識が失敗した場合、それぞれの利用者用として2つのデフォルトのキャラクター画像が生成される。2つのデフォルトのキャラクター画像が、異なる画像であってもよいし、同じ画像であってもよい。   Furthermore, if the recognition of two faces fails, two default character images are generated for each user. The two default character images may be different images or the same image.

なお、利用者の人数が3人以上として選択された場合、キャラクター画像の生成は行われず、また、利用者毎の写りの調整も不可とされる。写りの調整は、3人以上の利用者全員に対して一律の調整となる。   When the number of users is selected as three or more, character images are not generated, and the adjustment of the image for each user is also disabled. The adjustment of the reflection is a uniform adjustment for all three or more users.

・撮影に関する変形例
1.個人認識用の1回の撮影が、利用者の顔の認識用の撮影とキャラクター画像の生成用の撮影とを兼ねた撮影であるものとしたが、利用者の顔の認識用の撮影とキャラクター画像の生成用の撮影とがそれぞれ行われるようにしてもよい。それぞれの撮影において、上述したようにして顔の認識が行われる。
-Modifications related to shooting Although one shot for personal recognition is a shot that combines shooting for recognition of the user's face and shooting for generating a character image, shooting for recognition of the user's face and character Shooting for generating an image may be performed. In each shooting, face recognition is performed as described above.

この場合、1回目の利用者の顔の認識用の撮影で顔認識が失敗したとしても、2回目のキャラクター画像の生成用の撮影で顔認識が成功した場合には、キャラクター画像が生成されることになる。   In this case, even if face recognition fails in the first user's face recognition shooting, if face recognition succeeds in the second character image generation shooting, a character image is generated. It will be.

2.個人認識用の撮影が1回しか行われないものとしたが、それぞれの顔の認識が成功するまで、個人認識用の撮影が繰り返されるようにしてもよい。この場合、デフォルトのキャラクター画像は生成されず、利用者毎のキャラクター画像が必ず生成される。   2. Although the shooting for personal recognition is performed only once, the shooting for personal recognition may be repeated until each face is successfully recognized. In this case, a default character image is not generated, and a character image for each user is always generated.

3.個人認識用の撮影が複数回行われる場合において、1回目の撮影で1人しか顔認識が成功せず、2回目の撮影で2人の顔認識が成功したとき、1回目の撮影で得られた画像を用いずに、2回目の撮影で得られた画像を写りの調整とキャラクター画像の生成に用いるようにしてもよい。   3. When shooting for personal recognition is performed a plurality of times, only one person can succeed in face recognition in the first shooting, and two faces can be recognized successfully in the second shooting. Instead of using the image, the image obtained by the second shooting may be used for adjusting the image and generating the character image.

4.個人認識用の撮影が複数回行われる場合において、1回目の撮影で1人しか顔認識が成功せず、2回目の撮影で2人の顔認識が成功したとき、1回目の撮影で得られた画像を、1回目の撮影で顔認識が成功した一方の利用者の写りの調整とキャラクター画像の生成に用い、2回目の撮影で得られた画像を、2回目の撮影で顔認識が成功した他方の利用者の写りの調整とキャラクター画像の生成に用いるようにしてもよい。   4). When shooting for personal recognition is performed a plurality of times, only one person can succeed in face recognition in the first shooting, and two faces can be recognized successfully in the second shooting. The image was acquired for the second time and the face was successfully recognized for the second time. It may be used for adjusting the reflection of the other user and generating a character image.

5.写り調整用、キャラクター画像生成用とで、画像処理を施す部位、キャラクター画像の生成用に抽出する部位を変更してもよい。例えば、写り調整用として、目を抽出し、キャラクター画像の生成用として、眉毛、鼻、口を抽出するようにすることが可能である。顔認識によって目の抽出が失敗したとしても、キャラクター画像を生成することが可能になることがある。   5. The part to be subjected to image processing and the part to be extracted for generating the character image may be changed for image adjustment and for character image generation. For example, it is possible to extract eyes for image adjustment and to extract eyebrows, nose, and mouth for character image generation. Even if eye extraction fails due to face recognition, it may be possible to generate a character image.

<編集処理>
次に、図30のフローチャートを参照して、図18のステップS4において行われる編集処理について説明する。
<Edit processing>
Next, the editing process performed in step S4 of FIG. 18 will be described with reference to the flowchart of FIG.

ステップS61において、編集処理部403のキャラクター画像生成部431(図17)はキャラクター画像を生成する。   In step S61, the character image generation unit 431 (FIG. 17) of the editing processing unit 403 generates a character image.

すなわち、キャラクター画像生成部431は、撮影処理部402から供給された顔パーツの画像に画像処理を施すことによってイラスト調の線画の顔パーツを生成する。キャラクター画像生成部431は、顔パーツに対して、適宜、変形、色変換、サイズ調整などの画像処理を施す。   That is, the character image generation unit 431 generates an illustration-like line drawing face part by performing image processing on the face part image supplied from the imaging processing unit 402. The character image generation unit 431 appropriately performs image processing such as deformation, color conversion, and size adjustment on the face part.

また、キャラクター画像生成部431は、事前選択処理部401から供給されたパーツ選択情報に基づいて、利用者が選択した顔の輪郭、髪型、オプションを特定し、特定した輪郭、髪型、オプションの画像と、画像処理を施すことによって生成した顔パーツとを合成して、キャラクター画像を生成する。   In addition, the character image generation unit 431 identifies the face contour, hairstyle, and options selected by the user based on the part selection information supplied from the pre-selection processing unit 401, and the identified contour, hairstyle, and optional images. And a face part generated by performing image processing are combined to generate a character image.

キャラクター画像生成部431は、顔認識が成功した利用者のキャラクター画像を生成する。また、キャラクター画像生成部431は、顔認識が失敗した利用者のキャラクター画像として、デフォルトのキャラクター画像を生成する。   The character image generation unit 431 generates a character image of a user who has succeeded in face recognition. In addition, the character image generation unit 431 generates a default character image as the character image of the user whose face recognition has failed.

なお、キャラクター画像の生成が、編集処理の開始直後に行われるのではなく、顔認識が行われた直後に開始されるようにしてもよい。この場合、キャラクター画像生成部431が、撮影処理部402の構成として設けられるようにしてもよいし、編集処理部403の構成として設けられるようにしてもよい。   The generation of the character image may be started immediately after the face recognition is performed, not immediately after the editing process is started. In this case, the character image generation unit 431 may be provided as a configuration of the photographing processing unit 402 or may be provided as a configuration of the editing processing unit 403.

ステップS62において、表示制御部434は、結果確認画面をタブレット内蔵モニタ131に表示させる。結果確認画面は、生成されたキャラクター画像の確認に用いられる画面である。   In step S62, the display control unit 434 displays a result confirmation screen on the tablet built-in monitor 131. The result confirmation screen is a screen used for confirming the generated character image.

図31は、結果確認画面の例を示す図である。   FIG. 31 is a diagram illustrating an example of a result confirmation screen.

結果確認画面の上方には、キャラクター画像の生成中であることを表すメッセージが表示される。結果確認画面の略中央には、1人目の利用者の顔の画像である顔画像601と2人目の利用者の顔の画像である顔画像602が並べて表示される。顔画像601と顔画像602は、個人認識用の撮影によって得られ、撮影処理部402から供給された画像である。   A message indicating that a character image is being generated is displayed above the result confirmation screen. A face image 601 that is an image of the face of the first user and a face image 602 that is an image of the face of the second user are displayed side by side in the approximate center of the result confirmation screen. The face image 601 and the face image 602 are images obtained by shooting for personal recognition and supplied from the shooting processing unit 402.

顔画像601と顔画像602の下には、キャラクター画像の生成の進捗状況を表すインジケータ603が表示される。   Under the face image 601 and the face image 602, an indicator 603 indicating the progress of generation of the character image is displayed.

キャラクター画像の生成が終了した場合、結果確認画面は、図32の表示に切り替わる。図32の例においては、顔画像601に代えて、1人目の利用者のキャラクター画像P101が表示され、顔画像602に代えて、2人目の利用者のキャラクター画像P102が表示されている。キャラクター画像P101,P102は、スマートフォンの外観を表す画像のディスプレイ部611,612にそれぞれ表示される。   When the generation of the character image is finished, the result confirmation screen is switched to the display of FIG. In the example of FIG. 32, the character image P101 of the first user is displayed instead of the face image 601, and the character image P102 of the second user is displayed instead of the face image 602. Character images P101 and P102 are respectively displayed on display portions 611 and 612 of images representing the appearance of the smartphone.

このような表示から、各利用者は自分のキャラクター画像を確認することができる。結果確認画面の中央下方には、次の作業に進むときに操作されるOKボタン613が表示される。   From such a display, each user can confirm his character image. An OK button 613 operated when proceeding to the next work is displayed at the lower center of the result confirmation screen.

結果確認画面のOKボタン613が押下された場合、ステップS63において、表示制御部434は、名前入力画面をタブレット内蔵モニタ131に表示させる。名前入力画面は、各利用者の名前の入力に用いられる画面である。ここで入力された名前が、スタンプ画像の生成や、名前入りのフレーム(前景画像)の生成などに用いられる。   When the OK button 613 on the result confirmation screen is pressed, the display control unit 434 displays the name input screen on the tablet built-in monitor 131 in step S63. The name input screen is a screen used for inputting the name of each user. The name input here is used for generation of a stamp image, generation of a frame with a name (foreground image), and the like.

図33は、名前入力画面の例を示す図である。   FIG. 33 is a diagram illustrating an example of a name input screen.

名前入力画面の左側には領域621Lが形成され、右側には領域621Rが形成される。領域621Lは、1人目の利用者の名前の入力に用いられ、領域621Rは、2人目の利用者の名前の入力に用いられる。   An area 621L is formed on the left side of the name input screen, and an area 621R is formed on the right side. The area 621L is used for inputting the name of the first user, and the area 621R is used for inputting the name of the second user.

領域621Lの右上のキャラクター画像表示領域631Lには、1人目の利用者のキャラクター画像であるキャラクター画像P101が表示される。キャラクター画像P101の左隣には吹き出しが表示され、その吹き出しの内側に名前入力欄632Lが表示される。名前入力欄632Lには、下に表示されているキーボード633Lを用いて入力された名前が表示される。   A character image P101 that is a character image of the first user is displayed in the character image display region 631L at the upper right of the region 621L. A balloon is displayed on the left side of the character image P101, and a name input field 632L is displayed inside the balloon. The name input field 632L displays the name input using the keyboard 633L displayed below.

領域621Rには、領域621Lの表示と同様の表示が位置を対称にして設けられる。領域621Rの左上に形成されたキャラクター画像表示領域631Rには、2人目の利用者のキャラクター画像であるキャラクター画像P102が表示される。   In the region 621R, a display similar to the display in the region 621L is provided with a symmetrical position. In the character image display area 631R formed at the upper left of the area 621R, a character image P102 that is the character image of the second user is displayed.

キャラクター画像表示領域631Lとキャラクター画像表示領域631Rの間には、それぞれの領域に表示されているキャラクター画像を入れ替えるときに操作される入れ替えボタン622が表示される。図33の状態で入れ替えボタン622が一回押下された場合、キャラクター画像P101がキャラクター画像表示領域631Rに表示され、キャラクター画像P102がキャラクター画像表示領域631Lに表示される。   Between the character image display area 631L and the character image display area 631R, an exchange button 622 operated when the character images displayed in the respective areas are exchanged is displayed. When the replace button 622 is pressed once in the state of FIG. 33, the character image P101 is displayed in the character image display area 631R, and the character image P102 is displayed in the character image display area 631L.

領域621Lを用いて入力された名前とキャラクター画像表示領域631Lに表示されたキャラクター画像が紐付けられ、領域621Rを用いて入力された名前とキャラクター画像表示領域631Rに表示されたキャラクター画像が紐付けられる。図32の画面は、利用者の名前とキャラクター画像との対応関係の確認にも用いられる画面となる。   The name input using the area 621L and the character image displayed in the character image display area 631L are linked, and the name input using the area 621R and the character image displayed in the character image display area 631R are linked. It is done. The screen shown in FIG. 32 is a screen used for confirming the correspondence between the user name and the character image.

利用者の名前が入力されるとともに、利用者の名前とキャラクター画像の対応関係が確認された後、名前入力画面は図34の表示に切り替わる。   After the user name is input and the correspondence between the user name and the character image is confirmed, the name input screen is switched to the display of FIG.

図34の名前入力画面は、1つのグループ名の入力に用いられる画面である。グループ名も、例えばスタンプ画像の生成に用いられる。   The name input screen of FIG. 34 is a screen used for inputting one group name. The group name is also used for generating a stamp image, for example.

図34の名前入力画面の上方左側には、2人の利用者が写る2枚の撮影画像が表示される。撮影画像の右隣には吹き出しが表示され、その吹き出しの内側に、名前入力欄641が表示される。名前入力欄641には、下に表示されているキーボード642Lを用いて入力されたグループ名が表示される。   On the upper left side of the name input screen in FIG. 34, two captured images showing two users are displayed. A balloon is displayed on the right side of the photographed image, and a name input field 641 is displayed inside the balloon. The name input field 641 displays the group name input using the keyboard 642L displayed below.

グループ名が入力された後、ステップS64において、表示制御部434は、使えるシールデザイン選択画面をタブレット内蔵モニタ131に表示させる。   After the group name is input, in step S64, the display control unit 434 displays a usable seal design selection screen on the tablet built-in monitor 131.

使えるシールデザイン選択画面は、上述した「使えるシール」のデザインの選択に用いられる画面である。使えるシールには、キャラクター画像または撮影画像を配置することが可能とされる。ここでは、キャラクター画像を用いたデザインについて説明する。   The usable seal design selection screen is a screen used for selecting the above-mentioned “usable seal” design. Character images or photographed images can be placed on usable stickers. Here, design using character images will be described.

キャラクター画像を用いた使えるシールのデザインには例えば以下の5種類が用意される。
(1)ネームシール
・・・キャラクター画像に名前などを合成した画像が印刷されたデザイン
(2)メーセッジシール
・・・キャラクター画像にメーセッジなどを合成した画像が印刷されたデザイン
(3)カレンダーシール
・・・キャラクター画像にカレンダーなどを合成した画像が印刷されたデザイン
(4)占いシール
・・・キャラクター画像に利用者同士の相性を表す数字などを合成した画像が印刷されたデザイン
(5)キャラクター画像シール
・・・キャラクター画像がそのまま印刷されたデザイン
For example, the following five types of seal designs that use character images are prepared.
(1) Name sticker: A design that prints an image that combines a character image with a name, etc. (2) Messege sticker ... A design that prints an image that combines a character image, etc. (3) Calendar sticker・ ・ ・ Design with character image combined with calendar, etc. (4) Fortune-telling sticker ・ ・ ・ Design with character image combined with numbers that express compatibility between users (5) Character Image sticker: Design with character image printed as it is

図35は、使えるシールデザイン選択画面の例を示す図である。   FIG. 35 is a diagram showing an example of a usable seal design selection screen.

使えるシールデザイン選択画面の左側の領域651Lは、1人目の利用者の使えるシールのデザインの選択に用いられ、右側の領域651Rは、2人目の利用者の使えるシールのデザインの選択に用いられる。   The area 651L on the left side of the usable seal design selection screen is used for selecting a seal design usable by the first user, and the area 651R on the right side is used for selecting a seal design usable by the second user.

領域651Lの上方には、所定のレイアウトのシール紙の見本である見本画像661Lが表示される。見本画像661Lの右端には、使えるシールの領域である使えるシール領域662Lが形成される。下のサンプル表示領域664Lを用いた選択内容が、縦長長方形の使えるシール領域662Lの表示に反映される。   A sample image 661L, which is a sample of sticker paper having a predetermined layout, is displayed above the area 651L. A usable seal region 662L, which is a usable seal region, is formed at the right end of the sample image 661L. The selection using the lower sample display area 664L is reflected in the display of the seal area 662L that can be used as a vertically long rectangle.

キャラクター画像を用いた使えるシールのデザインには、例えば、略正方形の画像を使えるシール領域662Lに縦に2つ並べて印刷する正方形デザインと、横長長方形の画像を使えるシール領域662Lに1つ印刷する横長デザインとがある。正方形デザインの使えるシール領域662Lの面積と横長デザインの使えるシール領域662Lの面積は同じである。また、1つのキャラクター画像を用いたデザインである1人用のデザインと、2つのキャラクター画像を用いたデザインである2人用のデザインとがある。   For example, a seal design using a character image can include a square design in which two substantially vertical images can be printed side by side in a seal region 662L, and a landscape design in which a rectangular image can be printed in a seal region 662L. There is a design. The area of the seal area 662L that can be used for the square design is the same as the area of the seal area 662L that can be used for the landscape design. In addition, there are a design for one person using a character image and a design for two people using a character image.

見本画像661Lの下にはタブ663Lが表示される。タブ663Lは、使えるシールのデザインのカテゴリである、キャラデザイン1、キャラデザイン2、プリデザイン1、プリデザイン2の各カテゴリの4つのタブからなる。サンプル表示領域664Lの表示が、タブ663Lの操作に応じて切り替えられる。   A tab 663L is displayed below the sample image 661L. The tab 663L includes four tabs in each category of character design 1, character design 2, pre-design 1, and pre-design 2, which are categories of seal designs that can be used. The display of the sample display area 664L is switched according to the operation of the tab 663L.

キャラデザイン1は、キャラクター画像を用いた正方形デザインのカテゴリを表し、キャラデザイン2は、キャラクター画像を用いた横長デザインのカテゴリを表す。プリデザイン1とプリデザイン2は、撮影画像を用いた使えるシールのカテゴリを表す。   Character design 1 represents a square design category using character images, and character design 2 represents a landscape design category using character images. Pre-design 1 and pre-design 2 represent categories of seals that can be used using photographed images.

図35の領域651Lにおいてはキャラデザイン1が選択されている。サンプル表示領域664Lには、キャラクター画像P101を用いた正方形デザインの使えるシールを表すサンプル画像671−1乃至671−6が表示される。   In the area 651L of FIG. 35, the character design 1 is selected. In the sample display area 664L, sample images 671-1 to 671-6 representing seals that can be used in a square design using the character image P <b> 101 are displayed.

このように、領域651Lには、1つのキャラクター画像を用いた使えるシールのデザインとして、1人目の利用者に紐付けられたキャラクター画像P101を用いたデザインを表すサンプル画像が表示される。キャラクター画像は、デザインを選択した後に表示されるウインドウから変更可能とされる。   In this way, in the area 651L, a sample image representing a design using the character image P101 associated with the first user is displayed as a usable seal design using one character image. The character image can be changed from a window displayed after selecting a design.

サンプル画像671−1は、キャラクター画像P101をそのまま用いたデザインであり、サンプル画像671−2乃至671−6は、キャラクター画像P101に名前などの文字と装飾画像を合成したデザインを表す。   The sample image 671-1 is a design using the character image P <b> 101 as it is, and the sample images 671-2 to 671-6 represent a design in which characters such as names and a decoration image are combined with the character image P <b> 101.

サンプル画像671−1乃至671−6を用いて所定のデザインが選択された場合、領域651Lには、図36に示すようなウインドウ691がポップアップ表示される。図36のウインドウ691は、サンプル画像671−2が選択されたときに表示される画面である。   When a predetermined design is selected using the sample images 671-1 to 671-6, a window 691 as shown in FIG. 36 pops up in the area 651 L. A window 691 in FIG. 36 is a screen displayed when the sample image 671-2 is selected.

ウインドウ691の中央上方のデザイン表示領域692には、選択されたデザインを表すサンプル画像671−2と同じ画像が表示され、その下に、キャラクター画像P101とキャラクター画像P102が並べて表示される。図36の例においては、キャラクター画像P101が選択中とされている。例えばキャラクター画像P102が選択された場合、デザインはそのままに、キャラクター画像をキャラクター画像P102に入れ替えた画像がデザイン表示領域692に表示される。   In the design display area 692 at the upper center of the window 691, the same image as the sample image 671-2 representing the selected design is displayed, and below that, the character image P101 and the character image P102 are displayed side by side. In the example of FIG. 36, the character image P101 is selected. For example, when the character image P <b> 102 is selected, an image in which the character image is replaced with the character image P <b> 102 is displayed in the design display area 692 without changing the design.

サンプル表示領域664Lに表示されるサンプル画像はデザインの選択に用いられる画像であり、所定のデザインを選択したときに表示されるウインドウは、配置するキャラクター画像の選択に用いられる画面となる。   The sample image displayed in the sample display area 664L is an image used for selecting a design, and the window displayed when a predetermined design is selected is a screen used for selecting a character image to be arranged.

サンプル画像671−1乃至671−6のいずれかが選択された状態で図35のOKボタン665Lが押下された場合、選択されたデザインの使えるシールの画像が、縦に2つ並べて、使えるシール領域662Lに表示される。   When the OK button 665L in FIG. 35 is pressed in a state where any of the sample images 671-1 to 671-6 is selected, two seal images that can be used for the selected design are arranged vertically and can be used. 662L.

右側の領域651Rには、領域651Lの表示と同様の表示が設けられる。図35の領域651Rにおいてはキャラデザイン2が選択されている。サンプル表示領域664Rには、キャラクター画像P101とキャラクター画像P102を用いた、横長デザインを表すサンプル画像681−1乃至681−4と、サンプル画像682−1,682−2が表示される。   In the right region 651R, a display similar to the display of the region 651L is provided. In the area 651R of FIG. 35, the character design 2 is selected. In the sample display area 664R, sample images 681-1 to 681-4 representing the landscape design using the character image P101 and the character image P102, and sample images 682-1 and 682-2 are displayed.

サンプル画像681−1乃至681−4は、それぞれ、使えるシールの上述した5種類のうちのメッセージシールのデザインを表す。   Sample images 681-1 through 681-4 each represent the design of a message sticker among the above-mentioned five types of usable stickers.

カレンダー領域682に表示されるサンプル画像682−1とサンプル画像682−2は、それぞれ、カレンダーシールのデザインを表す。サンプル画像682−1とサンプル画像682−2は、キャラクター画像P101とキャラクター画像P102に、ある1ヶ月のカレンダーを合成することによって構成される。   Sample image 682-1 and sample image 682-2 displayed in calendar area 682 each represent a design of a calendar sticker. The sample image 682-1 and the sample image 682-2 are configured by synthesizing a calendar for a certain month with the character image P101 and the character image P102.

図37は、図36のカレンダー領域682を拡大して示す図である。   FIG. 37 is an enlarged view of the calendar area 682 in FIG.

サンプル画像682−1とサンプル画像682−2の下の月選択領域683には、今月に相当する12月を中心に、10月、11月、12月、1月、2月の文字が表示される。利用者が所定の月を選択したとき、サンプル画像682−1とサンプル画像682−2に配置されるカレンダーが、利用者が選択した月のカレンダー切り替わる。利用者は、好みの月のカレンダーを使えるシールとして選ぶことができる。   In the month selection area 683 below the sample image 682-1 and the sample image 682-2, characters of October, November, December, January, February are displayed centering on December corresponding to this month. The When the user selects a predetermined month, the calendars arranged in the sample image 682-1 and the sample image 682-2 are switched to the calendar of the month selected by the user. Users can choose their favorite month calendar as a usable sticker.

サンプル表示領域664Rに表示されたいずれかのサンプル画像が選択された状態でOKボタン665Rが押下された場合、選択されたデザインを表す画像が90度回転し、使えるシール領域662Rに表示される。   When the OK button 665R is pressed while any sample image displayed in the sample display area 664R is selected, the image representing the selected design is rotated 90 degrees and displayed in the usable seal area 662R.

使えるシールのデザインによっては、キャラクター画像の前景として他のフレーム画像が重畳して合成される。フレーム画像を消去するためのボタンが用意されるようにしてもよい。これにより、キャラクター画像が引き立った画像を生成し、シール紙に印刷することが可能になる。   Depending on the design of the seal that can be used, another frame image is superimposed and synthesized as the foreground of the character image. A button for deleting the frame image may be prepared. As a result, it is possible to generate an image in which the character image is emphasized and print it on the sticker paper.

このような画面を用いて使えるシールのデザインが選択された場合、処理はステップS65に進む。   If a usable seal design is selected using such a screen, the process proceeds to step S65.

ステップS65において、表示制御部434は、編集画面をタブレット内蔵モニタ131に表示させる。   In step S <b> 65, the display control unit 434 displays the editing screen on the tablet built-in monitor 131.

編集画面は、撮影画像の編集に用いられる画面である。編集画面には、編集対象となる撮影画像と、編集に用いられるスタンプ画像やペン画像などの各種の落書きコンテンツ(合成用画像)を選択するためのボタンが表示される。   The edit screen is a screen used for editing a captured image. On the editing screen, a photographed image to be edited and buttons for selecting various graffiti contents (compositing images) such as a stamp image and a pen image used for editing are displayed.

編集画面の表示前、コンテンツ生成部432は、キャラクター画像生成部431により生成されたキャラクター画像を用いて落書きコンテンツを生成する。生成された落書きコンテンツは編集部433と表示制御部434に出力される。   Before the editing screen is displayed, the content generation unit 432 generates graffiti content using the character image generated by the character image generation unit 431. The generated graffiti content is output to the editing unit 433 and the display control unit 434.

図38は、編集画面の例を示す図である。   FIG. 38 is a diagram illustrating an example of an editing screen.

編集画面は、基本的に、主な構成が左右対称に設けられることによって構成される。左側の領域は、タブレット内蔵モニタ131に向かって左側にいる利用者により用いられる領域である。右側の領域は、タブレット内蔵モニタ131に向かって右側にいる利用者により用いられる領域である。左側の領域に対する操作はタッチペン132Aを用いて行うことが可能とされ、右側の領域に対する操作はタッチペン132Bを用いて行うことが可能とされる。   The edit screen is basically configured by providing main components symmetrically. The left area is an area used by a user on the left side of the tablet built-in monitor 131. The area on the right side is an area used by the user on the right side toward the tablet built-in monitor 131. An operation on the left area can be performed using the touch pen 132A, and an operation on the right area can be performed using the touch pen 132B.

このような編集画面の構成により、2人の利用者が同時に編集作業を行うことができる。なお、図38に示される編集画面上の各領域を囲む破線は、画面に実際に表示されるものではない。   Such a configuration of the editing screen allows two users to perform editing work simultaneously. Note that the broken lines surrounding each area on the editing screen shown in FIG. 38 are not actually displayed on the screen.

編集画面の左側の領域の中央上方にはサムネイル表示領域711Lが設けられる。サムネイル表示領域711Lは、撮影画像を表すサムネイル画像の表示領域である。サムネイル画像は、例えば撮影画像をそれぞれ縮小することによって生成される。   A thumbnail display area 711L is provided above the center of the left area of the editing screen. The thumbnail display area 711L is a display area for thumbnail images representing captured images. The thumbnail image is generated, for example, by reducing each captured image.

図38の例においては、1枚目から5枚目までの各撮影画像P31乃至P35を表すサムネイル画像と並べて、キャラクター画像P101のサムネイル画像がサムネイル表示領域711Lに表示されている。   In the example of FIG. 38, the thumbnail image of the character image P101 is displayed in the thumbnail display area 711L side by side with the thumbnail images representing the captured images P31 to P35 from the first image to the fifth image.

サムネイル表示領域711Lの下には編集領域712Lが設けられる。編集領域712Lは、サムネイル表示領域711Lのサムネイル画像を用いて選択された、編集対象となる撮影画像の表示領域である。   An editing area 712L is provided below the thumbnail display area 711L. The editing area 712L is a display area for a captured image to be edited, selected using the thumbnail image in the thumbnail display area 711L.

図38の例においては、1枚目の撮影画像P31が編集領域712Lに拡大表示されている。利用者は、タッチペン132Aを用いて落書きコンテンツを選択し、編集領域712Lに表示された撮影画像の編集を行うことができる。   In the example of FIG. 38, the first captured image P31 is enlarged and displayed in the editing area 712L. The user can select graffiti content using the touch pen 132A and edit the captured image displayed in the editing area 712L.

キャラクター画像P101が編集対象として選択された場合、図39に示すように、編集領域712Lには、キャラクター画像P101が拡大表示される。   When the character image P101 is selected as an editing target, the character image P101 is enlarged and displayed in the editing area 712L as shown in FIG.

すなわち、この例においては、撮影画像と同様に、各種の落書きコンテンツを用いて、キャラクター画像P101の編集を行うことができるようになっている。図39の右側の領域においては、キャラクター画像P102が編集対象として選択され、編集領域712Rに拡大表示されている。   That is, in this example, the character image P101 can be edited using various graffiti contents as with the captured image. In the area on the right side of FIG. 39, the character image P102 is selected as an editing target and is enlarged and displayed in the editing area 712R.

なお、使えるシールデザイン選択画面においてキャラデザインが選択されていることが、キャラクター画像の編集を行う前提条件となる。プリデザインが選択されている場合、編集画面には、キャラクター画像のサムネイル画像は表示されない。   Note that selection of a character design on a usable seal design selection screen is a prerequisite for editing a character image. When pre-design is selected, the thumbnail image of the character image is not displayed on the editing screen.

キャラデザインが選択されている場合、編集が適宜施されたキャラクター画像を用いて、使えるシールが生成される。このように、編集後のキャラクター画像を用いて生成された画像がシール紙に印刷される。   When the character design is selected, a usable sticker is generated using a character image appropriately edited. In this way, an image generated using the edited character image is printed on the sticker sheet.

キャラクター画像に対する編集の内容は、シール紙に印刷する画像にのみ反映され、サーバに送信されるキャラクター画像には反映されない。編集を行っている場合であっても、サーバには、編集が施されていない、オリジナルのキャラクター画像が送信されることになる。サーバに送信された画像は携帯端末にダウンロードするなどして用いられるが、キャラクター画像を携帯端末にダウンロードした後、各種のアプリケーションを用いて、キャラクター画像を自由に編集できるためである。   The content of the editing on the character image is reflected only on the image printed on the sticker paper, and not on the character image transmitted to the server. Even when editing is performed, the original character image that has not been edited is transmitted to the server. This is because the image transmitted to the server is used by downloading it to the mobile terminal or the like, but after downloading the character image to the mobile terminal, the character image can be freely edited using various applications.

キャラクター画像に対する編集の内容が、サーバに送信される画像にのみ反映され、シール紙に印刷される画像に反映されないようにしてもよい。   The content of editing the character image may be reflected only in the image transmitted to the server and not reflected in the image printed on the sticker paper.

利用者の人数が1人の場合、上述したように、利用者の顔画像を用いたキャラクター画像とデフォルトのキャラクター画像の2つのキャラクター画像が生成される。使えるシールのデザインとしてキャラデザインを選択している場合、デフォルトのキャラクター画像のサムネイル画像が編集画面に用意されるため、1人の利用者は、例えば編集画面の左側の領域の表示を用いて自分のキャラクター画像の編集を行い、右側の領域の表示を用いてデフォルトのキャラクター画像の編集を行うことができる。   When the number of users is one, as described above, two character images are generated: a character image using the user's face image and a default character image. When a character design is selected as a usable seal design, a thumbnail image of the default character image is prepared on the editing screen, so one user can use his / her display on the left area of the editing screen, for example. The character image can be edited, and the default character image can be edited using the display of the area on the right side.

利用者が1人で編集画面の左側の領域の表示と右側の領域の表示を用いて2つのキャラクター画像の編集を行う場合、タッチペン132を持ち替える必要がある。従って、左側の領域を撮影画像の編集用、右側の領域を2つのキャラクター画像の編集用の領域として設定されるようにしてもよい。   When one user edits two character images using the display of the left area and the display of the right area on the editing screen, the touch pen 132 needs to be changed. Accordingly, the left area may be set as an area for editing a captured image, and the right area may be set as an area for editing two character images.

これにより、2つのキャラクター画像を1人で編集する場合であってもタッチペン132を持ち替える必要がない。   Thereby, even when two character images are edited by one person, it is not necessary to change the touch pen 132.

なお、図36に示すようにキャラクター画像に文字が合成されている場合、合成されている文字を編集画面において再編集することができるようにしてもよい。また、文字を囲む吹き出しの位置、大きさ、範囲を変更できるようにしてもよい。   Note that, as shown in FIG. 36, when characters are combined with the character image, the combined characters may be re-edited on the editing screen. Further, the position, size, and range of the balloon surrounding the character may be changed.

デフォルトのキャラクター画像に対して編集を行うことができないようにしてもよい。   You may make it impossible to edit a default character image.

図38の編集領域712Lの下方には、横長長方形の領域である編集パレット713Lが表示される。編集パレット713Lは、編集領域712Lに表示されている撮影画像に合成されるペン画像、スタンプ画像などの各種の落書きコンテンツの選択に用いられるボタンが表示される領域である。   An editing palette 713L, which is a horizontally long rectangular area, is displayed below the editing area 712L in FIG. The edit palette 713L is an area in which buttons used for selecting various graffiti contents such as a pen image and a stamp image to be combined with the captured image displayed in the edit area 712L are displayed.

コンテンツ生成部432により生成された落書きコンテンツの選択に用いられるボタンも、適宜、編集パレット713Lに表示される。   Buttons used for selecting graffiti content generated by the content generation unit 432 are also displayed on the editing palette 713L as appropriate.

図40は、編集パレット713Lを拡大して示す図である。   FIG. 40 is an enlarged view of the editing palette 713L.

編集パレット713Lの上には、落書きコンテンツのカテゴリの選択に用いられる5種類のタブが表示される。利用者は、編集パレット713Lに表示させる落書きコンテンツのカテゴリを、これらのタブを用いて切り替えることができる。   On the editing palette 713L, five types of tabs used for selecting a graffiti content category are displayed. The user can switch the category of graffiti content displayed on the editing palette 713L using these tabs.

図40の例においては、スタンプ画像のカテゴリとしてキャラスタンプが選択されている。キャラスタンプは、キャラクター画像を用いて生成されたスタンプ画像のカテゴリである。   In the example of FIG. 40, the character stamp is selected as the category of the stamp image. A character stamp is a category of a stamp image generated using a character image.

編集パレット713Lの左側には、コンテンツ731−1乃至731−4が上段に並べて配置され、コンテンツ732−1乃至732−4が下段に並べて配置される。   On the left side of the editing palette 713L, the contents 731-1 to 731-4 are arranged in the upper row, and the contents 732-1 to 732-4 are arranged in the lower row.

上段のコンテンツ731−1とコンテンツ731−2は、それぞれ、キャラクター画像P101,P102をそのまま用いたスタンプ画像である。   The upper content 731-1 and content 731-2 are stamp images using the character images P101 and P102 as they are, respectively.

コンテンツ731−3とコンテンツ731−4は、それぞれ、キャラクター画像P101,P102に動物の被り物を被せたスタンプ画像である。コンテンツ731−3とコンテンツ731−4は、キャラクター画像P101,P102に、動物の被り物の画像を合成することによって生成される。   The contents 731-3 and the contents 731-4 are stamp images in which the character images P <b> 101 and P <b> 102 are covered with animal covers. The content 731-3 and the content 731-4 are generated by synthesizing the animal image with the character images P <b> 101 and P <b> 102.

下段のコンテンツ732−1とコンテンツ732−2は、それぞれ、キャラクター画像P101,P102のキャラクターが足を抱えて座っているスタンプ画像である。コンテンツ732−1とコンテンツ732−2は、キャラクター画像P101,P102に、デフォルトの体の画像を合成することによって生成される。   The lower content 732-1 and content 732-2 are stamp images in which the characters of the character images P101 and P102 are sitting with their feet. The content 732-1 and the content 732-2 are generated by combining the default body image with the character images P101 and P102.

コンテンツ732−3とコンテンツ732−4は、それぞれ、キャラクター画像P101,P102の顔の下に、名前入力画面を用いて入力された利用者の名前を合成したスタンプ画像である。キャラクター画像と合成する名前を、右端の修正ボタン737を押下すことによって修正できるようになされている。   The contents 732-3 and 732-4 are stamp images obtained by synthesizing the user names input using the name input screen under the faces of the character images P <b> 101 and P <b> 102, respectively. The name to be combined with the character image can be corrected by pressing a correction button 737 at the right end.

コンテンツ731−1乃至731−4の並びの右側には、コンテンツ733−1乃至733−4が横に並べて配置され、その下にコンテンツ734−1乃至734−4が横に並べて配置される。   On the right side of the arrangement of the contents 731-1 to 731-4, the contents 733-1 to 733-4 are arranged side by side, and below the contents 734-1 to 734-4 are arranged side by side.

上段のコンテンツ733−1乃至733−4は、それぞれ、喜怒哀楽を表すようにキャラクター画像P101の表情を変化させたスタンプ画像である。下段のコンテンツ734−1乃至734−4は、それぞれ、キャラクター画像P102の表情を変化させたスタンプ画像である。   The upper contents 733-1 to 733-4 are stamp images obtained by changing the expression of the character image P101 so as to represent emotions. Lower contents 734-1 to 734-4 are stamp images obtained by changing the expression of the character image P102.

コンテンツ734−1乃至734−4の下に配置された横長のコンテンツ735−1とコンテンツ735−2は、キャラクター画像P101とキャラクター画像P102の両方のキャラクター画像を用いたスタンプ画像である。撮影順に従って、1人目の利用者のキャラクター画像P101が左側に配置され、2人目の利用者のキャラクター画像P102が右側に配置される。   The horizontally long contents 735-1 and 735-2 arranged under the contents 734-1 to 734-4 are stamp images using character images of both the character image P101 and the character image P102. According to the shooting order, the character image P101 of the first user is arranged on the left side, and the character image P102 of the second user is arranged on the right side.

キャラクター画像が横並びで配置されるコンテンツにおいては、利用者同士に身長差があったとしても顔部分が抽出して生成されるため、身長差がない状態で、つまり高さを揃えてキャラクター画像が配置される。   In the content where character images are arranged side by side, even if there is a height difference between users, the face part is extracted and generated, so the character image is displayed with no height difference, that is, with the height aligned. Be placed.

編集パレット713Lの右端に配置された縦長のコンテンツ736は、キャラクター画像P101のキャラクターが立っている状態を示すスタンプ画像である。コンテンツ736は、キャラクター画像P101に、デフォルトの体の画像を合成することによって生成される。   The vertically long content 736 arranged at the right end of the editing palette 713L is a stamp image showing a state where the character of the character image P101 is standing. The content 736 is generated by combining the default body image with the character image P101.

利用者は、このようなスタンプ画像の中から好みのものをタッチペン132Aにより選択し、その状態で、編集領域712Lに表示された撮影画像上の位置を指定することによって、キャラクター画像を用いたスタンプ画像を撮影画像に合成することができる。   The user selects a favorite one from such stamp images with the touch pen 132A, and in that state, designates a position on the photographed image displayed in the editing area 712L, thereby using the stamp using the character image. Images can be combined with captured images.

図41は、キャラスタンプを用いた編集の例を示す図である。   FIG. 41 is a diagram showing an example of editing using a character stamp.

図41Aは、アップ画像の編集の例を示す。図41Aのアップ画像に合成されたスタンプ画像P111乃至P114は、それぞれ、図40のコンテンツ732−2,732−4,736,732−3を用いて合成されたスタンプ画像である。   FIG. 41A shows an example of editing an up image. The stamp images P111 to P114 combined with the up image of FIG. 41A are stamp images combined using the contents 732-2, 732-4, 736, and 732-3 of FIG. 40, respectively.

図41Bは、全身画像の編集の例を示す。図41Bの全身画像に合成されたスタンプ画像P121,P122は、それぞれ、図40のコンテンツ732−1,736を用いて合成されたスタンプ画像である。   FIG. 41B shows an example of editing a whole body image. The stamp images P121 and P122 combined with the whole body image of FIG. 41B are stamp images combined with the contents 732-1 and 736 of FIG. 40, respectively.

このように、利用者は、キャラクター画像に基づいて生成されたスタンプ画像を用いて撮影画像の編集を行うことができる。例えば、利用者は、撮影画像に写る自分の顔の近くにキャラクター画像を用いたスタンプ画像を配置することによって、キャラクター画像がどれだけ似ているかを確認することができる。   Thus, the user can edit the captured image using the stamp image generated based on the character image. For example, the user can confirm how much the character images are similar by placing a stamp image using the character image in the vicinity of his / her face in the captured image.

また、キャラクター画像に基づいて生成されたスタンプ画像を背景領域に合成することによって、オリジナル性の高い背景画像を生成することができる。スタンプ画像の合成先を、撮影画像に写る被写体の前景とするか背景とするかについても選択することが可能とされる。   In addition, by combining the stamp image generated based on the character image with the background region, a highly original background image can be generated. It is possible to select whether to combine the stamp image with the foreground or the background of the subject in the captured image.

図38の編集領域712Lの右方には、修正ツール選択領域714Lが形成される。修正ツール選択領域714Lは、消しゴムツールなどの、編集内容の修正に用いられる各種のツールの選択に用いられるボタンが縦に並べて表示される領域である。   A correction tool selection area 714L is formed on the right side of the editing area 712L in FIG. The correction tool selection area 714L is an area in which buttons used for selection of various tools used for correction of editing contents such as an eraser tool are displayed side by side.

修正ツール選択領域714Lの右方には、携帯送信用画像を作成するときに操作される作成ボタン715Lが表示される。携帯送信用画像は、例えば、利用者により選択されたテンプレートに応じて、トリミング、色変換等の画像処理を、利用者により選択された1枚の撮影画像に施すことによって生成される。   On the right side of the correction tool selection area 714L, a creation button 715L operated when creating an image for mobile transmission is displayed. The portable transmission image is generated, for example, by performing image processing such as trimming and color conversion on one photographed image selected by the user according to the template selected by the user.

修正ツール選択領域714Lの上方には、編集処理を終了するときに操作される終了ボタン716Lが表示される。   Above the correction tool selection area 714L, an end button 716L that is operated when the editing process is ended is displayed.

編集画面の右側の領域には、上述した左側の領域の構成と同じ構成が、位置を対称にして配置される。   In the right area of the editing screen, the same configuration as the configuration of the left area described above is arranged symmetrically.

利用者は、タッチペン132を用いて以上のような編集画面を操作し、撮影画像の編集を行う。   The user operates the editing screen as described above using the touch pen 132 to edit the captured image.

図30の説明に戻り、ステップS66において、編集部433は、利用者の操作に応じて撮影画像に編集を施す。撮影画像の編集は、予め設定された制限時間が経過するか、編集画面の終了ボタン716L,716Rが押下されるまで続けられる。   Returning to the description of FIG. 30, in step S66, the editing unit 433 edits the captured image in accordance with the operation of the user. The editing of the captured image is continued until a preset time limit elapses or the end buttons 716L and 716R on the editing screen are pressed.

編集が終了した場合、ステップS67において、表示制御部434は、分割数選択画面をタブレット内蔵モニタ131に表示させる。   When the editing is completed, in step S67, the display control unit 434 displays a division number selection screen on the tablet built-in monitor 131.

分割数選択画面は、シールレイアウトの選択に用いられる画面である。シールレイアウトにより、1枚のシール紙に印刷する編集画像の数、位置、大きさ、使えるシールの画像の位置、大きさなどが決定される。   The division number selection screen is a screen used for selecting a seal layout. The number, position, and size of an edited image to be printed on a sheet of sticker paper, the position and size of a usable sticker image, and the like are determined by the sticker layout.

ステップS68において、印刷データ生成部435は、分割数選択画面から選択されたシールレイアウトに応じて、編集画像や使えるシールの画像を配置し、印刷データを生成する。印刷データ生成部435により生成された印刷データは印刷処理部404に出力され、シール紙への印刷が行われる(図18のステップS5)。   In step S68, the print data generation unit 435 arranges an edited image or a usable seal image according to the seal layout selected from the division number selection screen, and generates print data. The print data generated by the print data generation unit 435 is output to the print processing unit 404 and printed on sticker paper (step S5 in FIG. 18).

ステップS69において、表示制御部434は、送信画像選択画面をタブレット内蔵モニタ131に表示させる。送信画像選択画面は、携帯端末に送信する画像の選択に用いられる画面である。   In step S <b> 69, the display control unit 434 displays a transmission image selection screen on the tablet built-in monitor 131. The transmission image selection screen is a screen used for selecting an image to be transmitted to the mobile terminal.

サーバに対しては、5枚の撮影画像と、作成されている場合には最大で2枚の携帯送信用画像と、2枚のキャラクター画像との計9枚の画像が送信される。携帯端末に送信する画像(携帯端末にダウンロードして取得可能な画像)が、送信画像選択画面から選択された1枚の画像と、2枚のキャラクター画像となるようにサーバにおいて管理される。   A total of nine images are transmitted to the server, including five captured images and, if created, a maximum of two portable transmission images and two character images. The server manages the images to be transmitted to the mobile terminal (images that can be downloaded and acquired by the mobile terminal) as one image selected from the transmission image selection screen and two character images.

図42は、送信画像選択画面の例を示す図である。   FIG. 42 is a diagram illustrating an example of a transmission image selection screen.

送信画像選択画面の左側には縦長長方形の画像選択領域751Lが形成され、右側には画像選択領域751Rが形成される。画像選択領域751Lは、1人目の利用者の画像選択に用いられ、画像選択領域751Rは、2人目の利用者の画像選択に用いられる。この例においては、携帯端末に送信する画像として、それぞれの利用者が好みの1枚の画像を選択することが可能とされている。   A vertically long rectangular image selection area 751L is formed on the left side of the transmission image selection screen, and an image selection area 751R is formed on the right side. The image selection area 751L is used for image selection of the first user, and the image selection area 751R is used for image selection of the second user. In this example, each user can select one favorite image as an image to be transmitted to the mobile terminal.

画像選択領域751Lの上方には、携帯端末に送信する画像の選択を促すメッセージが表示される。メッセージの下には撮影画像表示領域761Lが形成され、撮影画像表示領域761Lの下に携帯送信用画像表示領域762Lが形成される。   A message prompting selection of an image to be transmitted to the mobile terminal is displayed above the image selection area 751L. A captured image display area 761L is formed below the message, and a portable transmission image display area 762L is formed below the captured image display area 761L.

撮影画像表示領域761Lには5枚の撮影画像P31乃至P35のサムネイル画像が表示され、携帯送信用画像表示領域762Lには、撮影画像の編集中に作成された2枚の携帯送信用画像P51,P52のサムネイル画像が表示される。撮影画像の編集中に携帯送信用画像が作成されていない場合、携帯送信用画像表示領域762Lには携帯送信用画像が表示されない。   Thumbnail images of five captured images P31 to P35 are displayed in the captured image display area 761L, and two mobile transmission images P51, P2 created during editing of the captured image are displayed in the mobile transmission image display area 762L. A thumbnail image of P52 is displayed. When the mobile transmission image is not created during editing of the captured image, the mobile transmission image is not displayed in the mobile transmission image display area 762L.

この例においては、最大で、5枚の撮影画像と2枚の携帯送信用画像の計7枚の画像の中から、1枚の画像を選択することができるようになされている。いずれかの画像を選択した状態でOKボタン763Lが押下されたとき、携帯端末に送信する1枚の画像が決定される。右側の画像選択領域751Rには、画像選択領域751Lの表示と同様の表示が設けられる。   In this example, one image can be selected from a total of seven images including a maximum of five photographed images and two portable transmission images. When the OK button 763L is pressed with any image selected, one image to be transmitted to the mobile terminal is determined. In the right image selection area 751R, a display similar to the display of the image selection area 751L is provided.

図42の例においては、送信画像選択画面の左端と右端に、それぞれキャラクター画像P101とキャラクター画像P102が縦に並べて表示される。キャラクター画像P101とキャラクター画像P102の表示は、キャラクター画像P101とキャラクター画像P102が、利用者の選択によらずに携帯端末に送信されることを表す。   In the example of FIG. 42, the character image P101 and the character image P102 are displayed side by side at the left end and the right end of the transmission image selection screen, respectively. The display of the character image P101 and the character image P102 indicates that the character image P101 and the character image P102 are transmitted to the mobile terminal without being selected by the user.

それぞれの利用者は、少なくとも、画像選択領域751Lまたは画像選択領域751Rから選択した1枚の画像と、2枚のキャラクター画像を、携帯端末に送信することができる。   Each user can transmit at least one image selected from the image selection area 751L or the image selection area 751R and two character images to the mobile terminal.

写真シール作成装置1から送信された画像を受信して保存するサーバは、画像の閲覧等が可能なWebサイトである画像取得サイトを管理する。利用者は、有料会員としてまたは無料会員として会員登録することができ、1枚の画像と2枚のキャラクター画像については、無料会員であっても携帯端末に送信することができる。例えば有料会員の利用者は、IDやパスワードを入力して画像取得サイトにログインすることにより、全ての画像と2枚のキャラクター画像を携帯端末に送信することができる。   A server that receives and stores an image transmitted from the photo sticker creating apparatus 1 manages an image acquisition site, which is a Web site where images can be browsed. The user can register as a paid member or a free member, and one image and two character images can be transmitted to the mobile terminal even if the member is a free member. For example, a paying member user can send all images and two character images to the portable terminal by logging in to the image acquisition site by entering an ID or password.

このように、キャラクター画像については、送信画像選択画面で選択しないでも利用者に必ず提供されるため、利用者はお得感を得ることができる。利用者は、キャラクター画像をSNSサービスのサイトに気軽にアップロードし、友達に見せたりすることができる。   Thus, since the character image is always provided to the user without being selected on the transmission image selection screen, the user can obtain a good feeling. Users can easily upload character images to SNS service sites and show them to friends.

具体的には、利用者の人数が2人である場合、2人とも顔認識が成功していることが前提となるが、1回のゲームで、送信画像選択画面から選択した1枚の画像と、2枚のキャラクター画像との3枚の画像を無料会員でも取得することが可能となる。   Specifically, when the number of users is two, it is assumed that both of them have succeeded in face recognition, but one image selected from the transmission image selection screen in one game. Also, a free member can acquire three images including two character images.

また、利用者の人数が1人である場合も同様に、1回のゲームで、送信画像選択画面から選択した1枚の画像と、デフォルトのキャラクター画像を含む2枚のキャラクター画像との3枚の画像を無料会員でも取得することが可能となる。   Similarly, when the number of users is one, three images of one image selected from the transmission image selection screen and two character images including a default character image in one game It becomes possible even for a free member to acquire the images.

サーバに送信する画像が選択された場合、ステップS70において、表示制御部434は、アドレス入力画面をタブレット内蔵モニタ131に表示させる。アドレス入力画面は、利用者の携帯端末のメールアドレスの入力に用いられる画面である。ゲームの終了後、アドレス入力画面を用いて入力されたメールアドレス宛に、画像を取得するためのURLなどがサーバから送信される。   When an image to be transmitted to the server is selected, in step S70, the display control unit 434 displays an address input screen on the tablet built-in monitor 131. The address input screen is a screen used for inputting a mail address of the user's mobile terminal. After the game is over, a URL or the like for obtaining an image is sent from the server to the e-mail address entered using the address input screen.

図43は、アドレス入力画面の例を示す図である。   FIG. 43 is a diagram illustrating an example of an address input screen.

アドレス入力画面の左側には入力領域781Lが形成され、右側には入力領域781Rが形成される。入力領域781Lの左側の吹き出しには、携帯端末に送信する画像として選択された撮影画像P31と、キャラクター画像P101のサムネイル画像が表示されている。キャラクター画像P101は、入力領域781Lが、1人目の利用者のメールアドレスの入力に用いられる領域であることを示す。   An input area 781L is formed on the left side of the address input screen, and an input area 781R is formed on the right side. In the balloon on the left side of the input area 781L, a captured image P31 selected as an image to be transmitted to the mobile terminal and a thumbnail image of the character image P101 are displayed. The character image P101 indicates that the input area 781L is an area used for inputting the mail address of the first user.

入力領域781Lには、メールアドレスを構成するアルファベットや記号などのボタンよりなるキーボード791Lが表示される。キーボード791Lの下には、メールアドレスの入力を終了するときに操作されるOKボタン792Lが表示される。   In the input area 781L, a keyboard 791L including buttons such as alphabets and symbols constituting the mail address is displayed. Below the keyboard 791L, an OK button 792L that is operated when the input of the mail address is completed is displayed.

一方、入力領域781Rの右側の吹き出しには、携帯端末に送信する画像として選択された撮影画像P34と、キャラクター画像P102のサムネイル画像が表示されている。キャラクター画像P102は、入力領域781Rが、2人目の利用者のメールアドレスの入力に用いられる領域であることを示す。   On the other hand, in the balloon on the right side of the input area 781R, a captured image P34 selected as an image to be transmitted to the mobile terminal and a thumbnail image of the character image P102 are displayed. Character image P102 indicates that input area 781R is an area used for inputting the mail address of the second user.

入力領域781Rには、キーボード791Rと、メールアドレスの入力を終了するときに操作されるOKボタン792Rが表示される。   In the input area 781R, a keyboard 791R and an OK button 792R that is operated when input of the mail address is finished are displayed.

このようなアドレス入力画面を用いて入力されたメールアドレスとシールIDが紐付けてサーバにおいて管理される。例えば、入力領域781Lの表示を用いて2つのメールアドレスを入力することが可能とされ、入力領域781Rの表示を用いて2つのメールアドレスを入力することが可能とされる。   A mail address and a seal ID input using such an address input screen are associated with each other and managed in the server. For example, two mail addresses can be input using the display of the input area 781L, and two mail addresses can be input using the display of the input area 781R.

シールIDは16桁のユニークなIDであり、例えば印刷データ生成部435により生成され、シール紙に印刷される。携帯端末を操作して画像取得サイトにアクセスし、シールIDを入力することで、画像の閲覧、ダウンロードなどが可能になる。   The sticker ID is a unique ID of 16 digits, and is generated by, for example, the print data generation unit 435 and printed on sticker paper. By operating the mobile terminal to access the image acquisition site and entering the seal ID, you can view and download images.

シールIDは、例えば1ゲームで2つ生成される。この2つのシールIDをID A,ID Bとすると、ID Aは、入力領域781Lを用いて入力された1つ目のメールアドレスと2つ目のメールアドレスに紐付けられる。また、ID Bは、入力領域781Rを用いて入力された1つ目のメールアドレスと2つ目のメールアドレスに紐付けられる。   For example, two seal IDs are generated in one game. When these two seal IDs are ID A and ID B, ID A is linked to the first mail address and the second mail address input using the input area 781L. ID B is linked to the first mail address and the second mail address input using the input area 781R.

メールアドレスが入力された場合、ステップS71において、通信制御部436は、通信部303を制御し、各画像をサーバに送信する。サーバに送信される情報には、利用者により入力されたメールアドレスと、シールIDも含まれる。   When the mail address is input, in step S71, the communication control unit 436 controls the communication unit 303 and transmits each image to the server. The information transmitted to the server includes an e-mail address input by the user and a seal ID.

写真シール作成装置1から送信されてきた情報を受信したサーバは、利用者により入力されたメールアドレス宛てに、携帯端末からアクセスして画像を取得するのに必要なURLを含む電子メールを送信する。利用者が携帯端末を操作して電子メールに含まれるURLに基づいてサーバにアクセスし、シールIDを入力したとき、サーバに送信された画像が携帯端末上で閲覧可能となる。   The server that has received the information transmitted from the photo sticker creating apparatus 1 transmits an e-mail including a URL necessary for accessing from the mobile terminal and acquiring an image to the e-mail address input by the user. . When the user operates the mobile terminal to access the server based on the URL included in the e-mail and inputs the seal ID, the image transmitted to the server can be viewed on the mobile terminal.

ステップS72において、表示制御部434は、編集作業を終えた利用者に対して、印刷待ち空間A3への移動を案内する。印刷待ち空間A3への移動の案内は、タブレット内蔵モニタ131に案内画面を表示させることによって、または音声をスピーカ241から出力させることによって行われる。その後、図18のステップS4に戻り、それ以降の処理が行われる。   In step S72, the display control unit 434 guides the user who has finished the editing work to move to the print waiting space A3. The guidance for movement to the print waiting space A3 is performed by displaying a guidance screen on the tablet built-in monitor 131 or by outputting sound from the speaker 241. Thereafter, the process returns to step S4 in FIG. 18, and the subsequent processing is performed.

・編集に関する変形例
1.タッチペン132を用いた編集の入力時、キャラクター(顔部分にキャラクター画像が嵌め込まれたキャラクター)が編集画面に出現し、ハートのスタンプ画像などの各種のコンテンツを運んで移動するようなアニメーションが表示されるようにしてもよい。
-Modifications related to editing When editing with the touch pen 132, a character (a character with a character image inserted in the face) appears on the editing screen, and an animation is displayed that moves by carrying various contents such as a heart stamp image. You may make it do.

2.他人のキャラクター画像を用いたスタンプ画像が写真シール作成装置1に記憶され、後の利用者に対して落書きコンテンツとして提供されるようにしてもよい。   2. A stamp image using a character image of another person may be stored in the photo sticker creating apparatus 1 and provided as a graffiti content to a subsequent user.

3.キャラクター画像を2回押下すると、そのキャラクターがしゃべりだすようにしてもよい。   3. If the character image is pressed twice, the character may start speaking.

4.事前選択処理時に選択した顔の輪郭の形状に基づいて、撮影画像の調整が行われるようにしてもよい。例えば、顔の輪郭の形状として丸い顔が選択された場合、その選択結果に基づいて、撮影画像に写る利用者の顔の輪郭に対しても、それを「丸い顔」に変更するような画像処理が施される。   4). The captured image may be adjusted based on the shape of the face outline selected during the pre-selection process. For example, when a round face is selected as the shape of the face outline, an image that changes the face outline of the user in the captured image to a “round face” based on the selection result. Processing is performed.

<シール紙の例>
以上のように、写真シール作成装置1のゲームにおいては、撮影された画像とキャラクター画像が1枚のシール紙に印刷されて提供される。
<Example of sticker paper>
As described above, in the game of the photo sticker creating apparatus 1, the photographed image and the character image are provided by being printed on one sticker sheet.

撮影された画像からは、利用者は自分たちの写りの良さを実感することができる。また、実際の顔の画像(写真)ではなく、デフォルメしたキャラクター画像が印刷されるため、利用者は、プライバシーを意識することなく、キャラクター画像が印刷された使えるシールを様々な場所に貼ることが可能になる。   From the captured images, users can feel the goodness of their images. In addition, since the deformed character image is printed instead of the actual face image (photo), the user can put a usable sticker on which the character image is printed in various places without being aware of privacy. It becomes possible.

シール紙全体で使用すると、小物に貼るには大きく、長財布の中に入れておくだけといったように用途が限られるが、シール紙の端に小さく印刷されることにより、それを切り離して各種の用途に用いることができる。   If it is used on the whole sticker paper, it is large to stick to small items, and it can be used only by putting it in a long wallet. Can be used for applications.

図44および図45は、使えるシールの例を示す図である。   44 and 45 are diagrams showing examples of usable seals.

図44の例においては、撮影画像P31乃至P35が横に並べて印刷され、シール紙の右端にキャラクター画像P101が縦に並べて印刷されている。撮影画像P31乃至P35には適宜編集が施される。利用者は、矢印の先に示すようにキャラクター画像P101を含む略正方形の部分を切り取り、使えるシールとして様々な場所に貼ることができる。   In the example of FIG. 44, the captured images P31 to P35 are printed side by side and the character image P101 is printed side by side at the right end of the sticker sheet. The captured images P31 to P35 are appropriately edited. The user can cut out a substantially square portion including the character image P101 as indicated by the tip of the arrow and put it on various places as a usable seal.

また、2枚の使えるシールが得られるようにすることにより、利用者は、1枚を自分で使い、もう1枚を一緒にゲームを行った利用者の使えるシールと交換したりすることができる。   Also, by providing two usable stickers, users can use one by themselves and replace the other with a sticker that can be used by the user who played the game together. .

一方、図45の例においては、撮影画像P31乃至P35が横に並べて印刷され、シール紙の右端に、キャラクター画像P101とキャラクター画像P102を含むカレンダーの画像が印刷されている。利用者は、矢印の先に示すように横長のカレンダーの画像の部分を切り取り、使えるシールとして様々な場所に貼ることができる。   On the other hand, in the example of FIG. 45, the captured images P31 to P35 are printed side by side, and a calendar image including the character image P101 and the character image P102 is printed on the right end of the sticker sheet. The user can cut out the part of the image of the landscape calendar as shown at the end of the arrow and put it on various places as a usable seal.

なお、図44の使えるシールの範囲と図45の使えるシールの範囲は同じサイズの範囲である。使えるシールのサイズがデザインによって変わるようにしてもよい。   Note that the range of usable seals in FIG. 44 and the range of usable seals in FIG. 45 are the same size range. The size of the seal that can be used may vary depending on the design.

このように、文房具等の小物に貼り付けて使用するときの使い勝手の点から、キャラクター画像が配置される領域のサイズは、撮影画像が印刷される領域のサイズと比べて小さいサイズとされる。   Thus, from the viewpoint of ease of use when pasting on small items such as stationery, the size of the area where the character image is arranged is set to be smaller than the size of the area where the captured image is printed.

キャラクター画像がシール紙の縁の余白部分に配置され、印刷されるようにしてもよい。これにより、シール紙全体のデザイン性を高めることができ、例えばキャラクター画像が印刷されないデザインを選択した利用者に対して、次回のゲーム時に、キャラクター画像が印刷されたデザインを選択しようとする意欲を持たせることが可能になる。   The character image may be placed in the margin of the sticker paper and printed. As a result, the design of the entire sticker paper can be improved. For example, a user who selects a design that does not print a character image will be motivated to select a design that has a character image printed at the next game. It becomes possible to have.

<画像管理サイトの表示例>
図46は、画像管理サイトの表示例を示す図である。
<Example of image management site display>
FIG. 46 is a diagram illustrating a display example of the image management site.

図46の画面#101は、サーバにアクセスしたときに携帯端末のディスプレイに表示される画面である。   Screen # 101 in FIG. 46 is a screen displayed on the display of the portable terminal when accessing the server.

画面#101にはシールIDの入力欄811が設けられる。入力欄811の下には、写真シール作成装置1から送信された撮影画像P31乃至P35が横に並べて表示される。入力欄811にシールIDを入力した場合、ディスプレイの表示は、右側の画面#102に切り替わる。   On the screen # 101, a seal ID input field 811 is provided. Under the input field 811, the captured images P31 to P35 transmitted from the photo sticker creating apparatus 1 are displayed side by side. When the seal ID is input in the input field 811, the display on the display is switched to the screen # 102 on the right side.

画面#102の上方には撮影画像P31が表示される。撮影画像P31は、編集処理時に、送信画像選択画面から選択した1枚の撮影画像である。撮影画像P31の上には、携帯端末に送信することが可能な状態で保存されたことを表すメッセージが表示される。   A captured image P31 is displayed above the screen # 102. The captured image P31 is a single captured image selected from the transmission image selection screen during the editing process. On the captured image P31, a message indicating that the image is stored in a state where it can be transmitted to the mobile terminal is displayed.

画面#102の下方には、利用者に割り当てられたページであるマイページにアクセスするときに操作されるボタン821が表示される。ボタン821が押下された場合、ディスプレイの表示は、図47の画面#103に切り替わる。   Below the screen # 102, a button 821 that is operated when accessing a My Page that is a page assigned to the user is displayed. When the button 821 is pressed, the display on the display is switched to a screen # 103 in FIG.

画面#103には撮影画像P31乃至P35が並べて表示され、その下に、キャラクター画像P101とキャラクター画像P102が表示される。画面#103の上方には、画像の並び順を指定するときに用いられる指定ボタン831が設けられる。   On the screen # 103, the captured images P31 to P35 are displayed side by side, and a character image P101 and a character image P102 are displayed below the images. Above the screen # 103, a designation button 831 used when designating the arrangement order of the images is provided.

送信画像選択画面から選択した撮影画像P31と、キャラクター画像P101,P102は、それを選択したときに拡大して表示される。キャラクター画像P102が押下された場合、ディスプレイの表示は、右側の画面#104に切り替わる。   The captured image P31 selected from the transmission image selection screen and the character images P101 and P102 are enlarged and displayed when they are selected. When the character image P102 is pressed, the display on the display is switched to the screen # 104 on the right side.

画面#104には、キャラクター画像P102が拡大して表示される。このような表示から、利用者はキャラクター画像P102を閲覧し、適宜、携帯端末にダウンロードしたり、SNSサービスのサイトにアップロードしたりすることができる。   The character image P102 is enlarged and displayed on the screen # 104. From such a display, the user can browse the character image P102 and download it to a portable terminal or upload it to an SNS service site as appropriate.

このように、ある利用者が画像取得サイトにアクセスしたとき、自分のキャラクター画像と友達のキャラクター画像が表示されるため、キャラクター画像の検索機能が用意されるようにしてもよい。例えば、利用者が、自分のキャラクター画像を選択して本人確認を行った場合、キャラクター画像の絞り込みが行われ、選択したキャラクター画像が紐付けられているメールアドレスと同じメールアドレスに紐付けられている、本人のキャラクター画像のみが表示される。   In this way, when a certain user accesses the image acquisition site, his / her character image and friend's character image are displayed. Therefore, a character image search function may be prepared. For example, when the user selects his / her character image and confirms the identity, the character image is narrowed down and the selected character image is linked to the same email address as the associated email address. Only the person's character image is displayed.

これにより、利用者が多くの友達と写真シール作成装置1を利用し、自分と友達の多くのキャラクター画像がサーバに保存されている場合であっても、その利用者は、自分のキャラクター画像のみを表示させることが可能になる。   Thus, even if the user uses the photo sticker creating apparatus 1 with many friends and many character images of the user and the friend are stored in the server, the user can only see his / her character image. Can be displayed.

友達のキャラクター画像を非表示にすることにより、利用者自身の過去と現在のキャラクター画像を見やすい状態で比較することが可能になる。   By hiding the character image of the friend, it becomes possible to compare the user's own past and current character images in an easy-to-see state.

なお、友達のキャラクター画像についても、その友達が画像管理サイトの会員登録を行っている場合には、その会員とキャラクター画像がサーバにより紐付けて管理されるようにしてもよい。会員とキャラクター画像の紐付けは、例えば会員登録時に入力されたメールアドレスに基づいて行われる。   In addition, regarding the character image of a friend, when the friend has registered as a member of the image management site, the member and the character image may be associated with each other and managed by the server. The association between the member and the character image is performed based on, for example, an e-mail address input at the time of member registration.

これにより、その友達は、自分のキャラクター画像を選択して本人確認を行わないでも、本人とキャラクター画像との紐付けが自動的に行われることになり、本人確認の手間を省くことができる。   Thereby, even if the friend does not select his / her character image and confirms his / her identity, the link between the user and the character image is automatically performed, and the labor for confirming the identity can be saved.

それぞれの利用者とキャラクター画像との関係を表す情報を利用することにより、画像取得サイト上に、友達というタブを設けて、友達のタブ内に、友達のキャラクター画像が集めて表示されるようにしてもよい。友達を個人毎に特定し、友達毎のキャラクター画像がまとめられるようにしてもよい。   By using information representing the relationship between each user and the character image, a friend tab is provided on the image acquisition site so that the character images of the friend are collected and displayed in the friend tab. May be. Friends may be specified for each individual, and character images for each friend may be collected.

・画像管理サイトの表示の変形例
1.アプリケーションによる通知
画像取得通知、イベント通知等の通知が、携帯端末にインストールされたアプリケーションの機能により定期的に実施されるようにしてもよい。
-Image management site display variations Notification by Application Notification such as image acquisition notification and event notification may be periodically performed by the function of the application installed in the mobile terminal.

この通知が、キャラクター画像を用いたポップアップ表示により行われるようにしてもよい。自分に似たキャラクターにより通知が行われるため、サイトなどへの誘導を行いやすく、サイト訪問者数の増加に繋がる可能性がある。   This notification may be performed by pop-up display using a character image. Since notifications are made by characters that are similar to you, it is easy to navigate to sites, etc., which may lead to an increase in the number of site visitors.

2.友達図鑑機能
友達のキャラクター画像が一覧表示されるようにしてもよい。友達のキャラクター画像のサムネイル画像を押下すると、その友達のキャラクター画像が一覧表示される。
2. Friend picture book function A list of character images of friends may be displayed. When a thumbnail image of a friend's character image is pressed, a list of the friend's character images is displayed.

キャラクター画像の一覧には、同一人物のキャラクター画像をそれぞれサムネイル画像として表示すると視認性が低下する。従って、友達1人につき1つのキャラクター画像のサムネイル画像のみを表示するようにしてもよい。   If character images of the same person are displayed as thumbnail images in the list of character images, the visibility decreases. Therefore, only a thumbnail image of one character image may be displayed for each friend.

友達の数が一定以上になると、有名人と友達になれる、ポイントが付与される等の特典が提供されるようにしてもよい。   When the number of friends exceeds a certain level, benefits such as being able to become friends with celebrities or being awarded points may be provided.

3.複製又は上書き
キャラクター画像を複製してもよいし、上書きしてもよい。写真シール作成装置1で生成されたキャラクター画像は、顔認識撮影によって得られた画像が基になるため、喜怒哀楽の表情までキャラクター画像に反映される。
3. Duplicate or Overwrite Character images may be duplicated or overwritten. Since the character image generated by the photo sticker creating apparatus 1 is based on the image obtained by the face recognition photographing, even the expression of emotion is reflected in the character image.

つまり、撮影画像と同様に、同じ被写体であっても、様々なバリエーションのキャラクター画像が楽しめる。   That is, as with the photographed image, a variety of character images can be enjoyed even with the same subject.

しかし、生成されるキャラクター画像は1枚だけであるため、サーバ側で、喜怒哀楽の表情を変更したキャラクター画像が生成されるようにしてもよい。サーバ側で生成されたキャラクター画像は、写真シール作成装置1により生成されたキャラクター画像とは別にサーバに保存されるようにしてもよいし、写真シール作成装置1により生成されたキャラクター画像に上書きされるようにしてもよい。   However, since only one character image is generated, the server side may generate a character image in which the expression of emotion is changed. The character image generated on the server side may be stored in the server separately from the character image generated by the photo sticker creating apparatus 1, or the character image generated by the photo sticker creating apparatus 1 is overwritten. You may make it do.

表情の変更は、撮影された画像に含まれる利用者の表情を解析し、例えば、利用者の表情が笑顔である場合には泣き顔又は怒り顔などに編集するようにして行われる。これにより、利用者の表情を異なる表情に編集した複数のキャラクター画像を生成することが可能になる。   The facial expression is changed by analyzing the facial expression of the user included in the photographed image and, for example, editing the crying face or the angry face when the facial expression of the user is a smile. This makes it possible to generate a plurality of character images in which the user's facial expression is edited to a different facial expression.

例えば、1枚の撮影画像から、利用者の表情を喜怒哀楽の各々に編集した複数のキャラクター画像が生成されるようにしてもよい。   For example, a plurality of character images in which a user's facial expression is edited for each of the emotions may be generated from one photographed image.

なお、複数の表情の各々について、撮影画像から各表情における顔の各部位の位置関係、大きさなどの変化を解析し、解析結果を、一般的な顔の各部位の各表情における変化のデータとしてまとめるようにしてもよい。このデータから、表情毎に、顔の各部位の変化をルール化したデータベースを生成し、データベースと撮影画像を照合して、一致度が近い順に表情を変更してもよい。   For each of a plurality of facial expressions, changes in the positional relationship and size of each part of the face in each facial expression are analyzed from the photographed image, and the analysis results are used as data on changes in each facial expression in each part of the general face. You may make it collect as. From this data, for each facial expression, a database in which changes in each part of the face are ruled may be generated, the database and the captured image may be collated, and the facial expressions may be changed in the order of closeness.

データベースにおいて管理している顔の各部位の変化のルールに従って、加工処理を施す対象となる画像に含まれる顔の各部位を加工することによって表情を変化させることができる。   The facial expression can be changed by processing each part of the face included in the image to be processed according to the change rule of each part of the face managed in the database.

表情の喜怒哀楽以外にも、前景画像、背景画像を変更する対象としてもよい。背景画像として、キャラクター画像を規則的に配置して生成した画像を用いるようにしてもよい。   In addition to the emotion of emotion, the foreground image and the background image may be changed. An image generated by regularly arranging character images may be used as the background image.

4.キャラクター画像を用いたコラージュ画像の生成
キャラクター画像を合成し、組み合わせることによってコラージュ画像を生成してもよい。
4). Generation of Collage Image Using Character Image A collage image may be generated by combining and combining character images.

この場合、キャラクター画像を何枚合成するか、どの位置にどのキャラクター画像を配置するか等のテンプレートの選択が利用者により行われる。キャラクター画像だけでなく撮影画像の中から好みの画像を選択することができるようにしてもよい。   In this case, the user selects a template such as how many character images are to be combined and which character image is to be arranged at which position. You may enable it to select a favorite image from not only a character image but a picked-up image.

更に、フィルター処理やぼかし処理等の加工処理がキャラクター画像に施されるようにしてもよい。加工処理は、コントラスト、カラーバランス、トーンカーブ、彩度、透明度、テクスチャの種類及びその合成方法等の様々なパラメータを調整する処理である。テンプレート上の画像の配置枠内でトリミング領域を変更し、配置する画像の拡縮・移動・回転等を行うことができるようにしてもよい。コラージュ画像の編集を行うことができるようにしてもよい。   Further, processing such as filtering or blurring may be performed on the character image. The processing process is a process for adjusting various parameters such as contrast, color balance, tone curve, saturation, transparency, texture type, and synthesis method thereof. The trimming area may be changed within the image arrangement frame on the template so that the arrangement image can be enlarged / reduced / moved / rotated. The collage image may be edited.

5.動画
キャラクター画像が静止画ではなく、Gifアニメーションなどを用いた動画として生成されるようにしてもよい。
5). Animation Character images may be generated as animations using gif animations instead of still images.

6.時系列表示
生成したキャラクター画像を、生成した順に表示させることができるようにしてもよい。利用者は、キャラクター画像の時間変化を確認することができる。
6). Time-series display The generated character images may be displayed in the order of generation. The user can confirm the time change of the character image.

7.シーケンス
キャラクター画像のパーツ選択が編集前の事前選択のタイミングで行われるものとしたが、編集中に行われるようにしてもよい。撮影前にデザインの選択が行われ、編集中にキャラクター画像のパーツ選択が行われ、それらの選択結果に基づいて、キャラクター画像の生成が行われることになる。このようなシーケンスを採用することにより、キャラクター画像を生成する必要がない利用者を救済することができる。
7). Although the sequence character image parts are selected at the pre-selection timing before editing, they may be selected during editing. A design is selected before shooting, parts of a character image are selected during editing, and a character image is generated based on the selection results. By adopting such a sequence, a user who does not need to generate a character image can be relieved.

<その他>
上述した実施の形態では、写真シール作成装置1は、得られた撮影画像や編集画像をシール紙に印刷するとともに、サーバに送信することで利用者の携帯端末に提供する構成を採るものとした。これに限らず、撮影画像や編集画像をシール紙に印刷せずに、サーバに送信することで利用者の携帯端末に提供するのみの構成を採ることも可能である。また逆に、撮影画像や編集画像をサーバに送信せずに、シール紙に印刷するのみの構成を採ることも可能である。
<Others>
In the above-described embodiment, the photo sticker creating apparatus 1 is configured to print the obtained photographed image or edited image on the sticker paper and to send it to the server by sending it to the server. . However, the present invention is not limited to this, and it is also possible to adopt a configuration in which a photographed image or an edited image is only provided to the user's mobile terminal by being transmitted to the server without being printed on the sticker paper. On the contrary, it is possible to adopt a configuration in which the photographed image or the edited image is only printed on the sticker paper without being transmitted to the server.

すなわち、本技術は、撮影画像や編集画像がシール紙に印刷された写真シールを作成する写真シール作成装置に限らず、単に、撮影画像や編集画像を作成するゲームを提供する写真作成ゲーム機に適用することができる。   That is, the present technology is not limited to a photo sticker creating apparatus that creates a photo sticker in which a photographed image or an edited image is printed on a sticker paper, but simply a photo creating game machine that provides a game for creating a photographed image or an edited image. Can be applied.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.

この記録媒体は、例えば、図14に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、そのプログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク、もしくは半導体メモリなどよりなるリムーバブルメディア305により構成される。また、これらだけでなく、記録媒体は、装置本体にあらかじめ組み込まれた状態で管理者に配信されるプログラムが記録されているROM306や、記憶部302に含まれるハードディスクなどで構成される。   For example, as shown in FIG. 14, this recording medium is distributed to distribute the program to the administrator of the photo sticker creating apparatus 1 separately from the apparatus main body, and the magnetic disk on which the program is recorded ( A removable medium 305 including a flexible disk, an optical disk (including a CD-ROM and a DVD), a magneto-optical disk, or a semiconductor memory. In addition to these, the recording medium includes a ROM 306 in which a program distributed to an administrator in a state of being pre-installed in the apparatus main body, a hard disk included in the storage unit 302, and the like.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

以上において、印刷媒体は、シール紙や写真紙に限られるものではない。例えば、所定のサイズの紙やフィルム、プリペイドカードやIC(Integrated Circuit)カードなどのカード、あるいは、Tシャツなどの布地などに、画像を印刷するようにしてもよい。この場合、1または複数の撮影画像が配置されたシールレイアウト画像が、これらの印刷媒体に印刷されるようにしてもよい。   In the above, the printing medium is not limited to sticker paper or photographic paper. For example, an image may be printed on a predetermined size of paper or film, a card such as a prepaid card or an IC (Integrated Circuit) card, or a cloth such as a T-shirt. In this case, a sticker layout image in which one or a plurality of photographed images are arranged may be printed on these print media.

また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.

1 写真シール作成装置, 91 カメラ, 92 タッチパネルモニタ, 301 制御部, 402 撮影処理部, 411 撮影制御部, 412 クロマキー処理部, 413 画像処理部, 414 顔認識部, 415 表示制御部, 431 キャラクター画像生成部, 432 コンテンツ生成部, 433 編集部, 434 表示制御部, 435 印刷データ生成部, 436 通信制御部   1 Photo sticker creation device, 91 camera, 92 touch panel monitor, 301 control unit, 402 shooting processing unit, 411 shooting control unit, 412 chroma key processing unit, 413 image processing unit, 414 face recognition unit, 415 display control unit, 431 character image Generation unit, 432 content generation unit, 433 editing unit, 434 display control unit, 435 print data generation unit, 436 communication control unit

Claims (14)

利用者を被写体として撮影を行う撮影部と、
顔パーツを含む前記利用者の外観をデフォルメしたキャラクター画像を、前記撮影部による撮影によって得られた撮影画像に基づいて生成する生成部と、
前記キャラクター画像を印刷媒体に印刷するとともに、前記キャラクター画像を保存して前記利用者が有する携帯端末からのアクセスに応じて提供するサーバに対して、前記キャラクター画像を送信する出力部と
を備える写真作成ゲーム機。
A shooting unit for shooting a user as a subject;
A generating unit that generates a deformed character image including a facial part based on a photographed image obtained by photographing by the photographing unit;
A photo provided with an output unit that prints the character image on a print medium and that transmits the character image to a server that stores the character image and provides the character image in response to an access from a mobile terminal of the user. Create game machine.
前記キャラクター画像を構成する特定のパーツの選択画面を表示させる表示制御部をさらに備え、
前記生成部は、前記撮影画像に写る前記顔パーツを抽出し、画像処理を施すことによってデフォルメした前記顔パーツと、前記利用者により選択された前記特定のパーツとを合成することによって、前記キャラクター画像を生成する
請求項1に記載の写真作成ゲーム機。
A display control unit for displaying a selection screen of specific parts constituting the character image;
The generating unit extracts the face part appearing in the photographed image and combines the face part deformed by performing image processing and the specific part selected by the user, thereby generating the character. The photo creation game machine according to claim 1, wherein an image is generated.
前記生成部は、前記利用者の人数と同じ数の、それぞれの前記利用者の前記キャラクター画像を生成する
請求項1または2に記載の写真作成ゲーム機。
The photo creation game machine according to claim 1, wherein the generation unit generates the same number of the character images of the users as the number of users.
前記生成部は、予め用意されたデフォルトの前記キャラクター画像を含めて、前記利用者の人数と同じ数の前記キャラクター画像を生成する
請求項3に記載の写真作成ゲーム機。
The photo creation game machine according to claim 3, wherein the generation unit generates the same number of the character images as the number of users including the default character images prepared in advance.
前記生成部は、前記撮影画像に写る顔を認識することができなかった前記利用者の前記キャラクター画像として、デフォルトの前記キャラクター画像を生成する
請求項4に記載の写真作成ゲーム機。
The photo creation game machine according to claim 4, wherein the generation unit generates the default character image as the character image of the user who could not recognize a face in the captured image.
前記生成部は、前記撮影部による1回の撮影によって得られた2人の前記利用者が写る前記撮影画像に基づいて、2種類の前記キャラクター画像を生成する
請求項3乃至5のいずれかに記載の写真作成ゲーム機。
The said production | generation part produces | generates two types of said character images based on the said picked-up image which two said users obtained by one imaging | photography by the said imaging | photography part. The described photo creation game machine.
前記生成部は、前記撮影部による1回の撮影によって得られた1人の前記利用者が写る前記撮影画像に基づいて生成した前記利用者の前記キャラクター画像と、予め用意されたデフォルトの前記キャラクター画像との2種類の前記キャラクター画像を生成する
請求項1または2に記載の写真作成ゲーム機。
The generation unit includes the character image of the user generated based on the photographed image of one user obtained by one photographing by the photographing unit, and the default character prepared in advance. The photo creation game machine according to claim 1, wherein two types of the character images with an image are generated.
前記キャラクター画像に基づいて、前記撮影画像の編集に用いることが可能な合成用画像を生成するコンテンツ生成部と、
前記利用者による操作に応じて前記合成用画像を前記撮影画像に合成し、前記撮影画像の編集を行う編集部と
をさらに備える請求項1乃至7のいずれかに記載の写真作成ゲーム機。
A content generation unit that generates a composition image that can be used for editing the captured image based on the character image;
The photo creating game machine according to claim 1, further comprising: an editing unit that synthesizes the composite image with the captured image in accordance with an operation by the user and edits the captured image.
前記編集部は、前記キャラクター画像の編集を前記利用者による操作に応じて行う
請求項8に記載の写真作成ゲーム機。
The photo creation game machine according to claim 8, wherein the editing unit edits the character image in accordance with an operation by the user.
前記出力部は、編集された前記キャラクター画像を、編集された前記撮影画像とともに前記印刷媒体に印刷する
請求項9に記載の写真作成ゲーム機。
The photo creation game machine according to claim 9, wherein the output unit prints the edited character image on the print medium together with the edited captured image.
前記撮影画像に写る前記利用者の顔を認識する顔認識部と、
前記撮影画像に写る、認識された顔の写りを調整する画像処理部と
をさらに備え、
前記撮影部による1回の撮影によって得られた前記撮影画像は、顔の認識の対象となる前記撮影画像と、前記キャラクター画像の生成に用いられる前記撮影画像とを兼ねて用いられる
請求項1乃至10のいずれかに記載の写真作成ゲーム機。
A face recognition unit for recognizing the user's face in the captured image;
An image processing unit that adjusts the image of the recognized face that appears in the captured image, and
The photographed image obtained by one photographing by the photographing unit is used as both the photographed image to be recognized as a face and the photographed image used for generating the character image. The photo creation game machine according to any one of 10.
前記出力部は、前記撮影画像と前記キャラクター画像との両方の画像を、前記印刷媒体に印刷するとともに前記サーバに送信する
請求項1乃至11のいずれかに記載の写真作成ゲーム機。
The photo creation game machine according to any one of claims 1 to 11, wherein the output unit prints both the captured image and the character image on the print medium and transmits the image to the server.
前記出力部は、前記利用者の名前を表す画像、および占い結果を表す画像を含む複数の選択候補の中から選択された画像の一部として、前記キャラクター画像を前記印刷媒体に印刷する
請求項1乃至12のいずれかに記載の写真作成ゲーム機。
The output unit prints the character image on the print medium as a part of an image selected from a plurality of selection candidates including an image representing the name of the user and an image representing a fortune telling result. The photo creation game machine according to any one of 1 to 12.
利用者を被写体として撮影を行い、
顔パーツを含む前記利用者の外観をデフォルメしたキャラクター画像を、前記撮影によって得られた撮影画像に基づいて生成し、
前記キャラクター画像を印刷媒体に印刷するとともに、前記キャラクター画像を保存して前記利用者が有する携帯端末からのアクセスに応じて提供するサーバに対して、前記キャラクター画像を送信する
ステップを含む情報処理方法。
Take a picture of the user as the subject,
A character image that deforms the appearance of the user including face parts is generated based on the captured image obtained by the imaging,
An information processing method comprising the steps of: printing the character image on a print medium; and transmitting the character image to a server that stores the character image and provides the character image in response to access from a mobile terminal of the user .
JP2016163136A 2016-08-23 2016-08-23 Image processing equipment, image processing methods, and programs Active JP6773966B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016163136A JP6773966B2 (en) 2016-08-23 2016-08-23 Image processing equipment, image processing methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016163136A JP6773966B2 (en) 2016-08-23 2016-08-23 Image processing equipment, image processing methods, and programs

Publications (2)

Publication Number Publication Date
JP2018031860A true JP2018031860A (en) 2018-03-01
JP6773966B2 JP6773966B2 (en) 2020-10-21

Family

ID=61303196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016163136A Active JP6773966B2 (en) 2016-08-23 2016-08-23 Image processing equipment, image processing methods, and programs

Country Status (1)

Country Link
JP (1) JP6773966B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019146670A (en) * 2018-02-26 2019-09-05 株式会社三共 Game machine
WO2020175760A1 (en) * 2019-02-28 2020-09-03 Samsung Electronics Co., Ltd. Electronic device and content generation method
JP2021016030A (en) * 2019-07-10 2021-02-12 フリュー株式会社 Image processing device, image processing method, and program
JP2021044734A (en) * 2019-09-12 2021-03-18 フリュー株式会社 Image processing device, image processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1175152A (en) * 1997-08-27 1999-03-16 Daishin Home Kk Image processing unit
JP2005195857A (en) * 2004-01-07 2005-07-21 Make Softwear:Kk Photograph vending machine, and its control method and program
JP2010282255A (en) * 2009-06-02 2010-12-16 Taizo Otani Mascot print club device, mascot print club creation method, and start device for mascot print club device
JP2012039414A (en) * 2010-08-06 2012-02-23 Furyu Kk Photograph sticker creating apparatus, method, and program
JP2016028463A (en) * 2014-07-10 2016-02-25 フリュー株式会社 Photograph seal creation device and display method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1175152A (en) * 1997-08-27 1999-03-16 Daishin Home Kk Image processing unit
JP2005195857A (en) * 2004-01-07 2005-07-21 Make Softwear:Kk Photograph vending machine, and its control method and program
JP2010282255A (en) * 2009-06-02 2010-12-16 Taizo Otani Mascot print club device, mascot print club creation method, and start device for mascot print club device
JP2012039414A (en) * 2010-08-06 2012-02-23 Furyu Kk Photograph sticker creating apparatus, method, and program
JP2016028463A (en) * 2014-07-10 2016-02-25 フリュー株式会社 Photograph seal creation device and display method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019146670A (en) * 2018-02-26 2019-09-05 株式会社三共 Game machine
WO2020175760A1 (en) * 2019-02-28 2020-09-03 Samsung Electronics Co., Ltd. Electronic device and content generation method
US11189067B2 (en) 2019-02-28 2021-11-30 Samsung Electronics Co., Ltd. Electronic device and content generation method
JP2021016030A (en) * 2019-07-10 2021-02-12 フリュー株式会社 Image processing device, image processing method, and program
JP7290827B2 (en) 2019-07-10 2023-06-14 フリュー株式会社 Image processing device, image processing method, and program
JP2021044734A (en) * 2019-09-12 2021-03-18 フリュー株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP6773966B2 (en) 2020-10-21

Similar Documents

Publication Publication Date Title
JP5045842B1 (en) Image providing apparatus and method, and program
JP5196060B1 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP5664755B1 (en) Photo sticker creation apparatus and method, and program
US20150206310A1 (en) Image generating apparatus and image generating method
JP7626951B2 (en) Image processing device, image processing method, and program
JP6773966B2 (en) Image processing equipment, image processing methods, and programs
JP2023098882A (en) Image processing device, image processing method and program
JP7041342B2 (en) Image processing equipment, image processing methods, and programs
JP6867587B2 (en) Photographing game consoles, information processing methods, and programs
JP2014170234A (en) Photograph seal creation apparatus, photograph seal creation method, and program
JP2018107515A (en) Photo creation game machine and image processing method
JP2017027258A (en) Information distribution device, communication terminal, information distribution system, information distribution device control method, communication terminal control method, control program, and recording medium
JP7152687B2 (en) Display control device, display control method, program
JP5790812B2 (en) Photo sticker making apparatus and photo sticker making method
JP7074994B2 (en) Photographing game console and image processing method
JP2017212568A (en) Photograph making game machine and image generation method
JP6465333B2 (en) Image processing apparatus and image processing method
JP6032378B1 (en) Photo creation game machine and image processing method
JP2018101106A (en) Photography creation game machine and shooting method
JP2017054087A (en) Photographic seal creation device and display method
JP2020170097A (en) Photo creation game machine, image processing method, and program
JP2017118418A (en) Photo sticker creation device and display control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200914

R150 Certificate of patent or registration of utility model

Ref document number: 6773966

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250