[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2008225886A - Image display device, image display method, and program - Google Patents

Image display device, image display method, and program Download PDF

Info

Publication number
JP2008225886A
JP2008225886A JP2007063771A JP2007063771A JP2008225886A JP 2008225886 A JP2008225886 A JP 2008225886A JP 2007063771 A JP2007063771 A JP 2007063771A JP 2007063771 A JP2007063771 A JP 2007063771A JP 2008225886 A JP2008225886 A JP 2008225886A
Authority
JP
Japan
Prior art keywords
image
face
display
images
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007063771A
Other languages
Japanese (ja)
Other versions
JP4891123B2 (en
Inventor
Osamu Nonaka
修 野中
Satoshi Miyazaki
敏 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Olympus Imaging Corp
Original Assignee
Olympus Corp
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp, Olympus Imaging Corp filed Critical Olympus Corp
Priority to JP2007063771A priority Critical patent/JP4891123B2/en
Publication of JP2008225886A publication Critical patent/JP2008225886A/en
Application granted granted Critical
Publication of JP4891123B2 publication Critical patent/JP4891123B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image display device, an image display method, and a program for separating and analyzing a principal object and a background, and surely retrieving and displaying a photo that evokes a sense of nostalgia. <P>SOLUTION: When image data is input to a server 400, a face part of a person and a background in the image data are separated, and the degree of nostalgia is determined from a facial expression in the face part and a kind of an object in the background. When the image that evokes a sense of nostalgia is reproduced, the image data is selected according to the degree of nostalgia for each piece of the image data, and the selected images are reproduced in PC500. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、顔画像を含む複数の画像を所定の優先順位で表示させるための画像表示装置、画像表示方法、及びプログラムに関する。   The present invention relates to an image display device, an image display method, and a program for displaying a plurality of images including face images in a predetermined priority order.

近年、記録媒体の大容量化に伴い、フィルム写真時代に比べて大量の写真が撮影されるようになっている。また、こうした写真はデジタル画像で得られるので、ネットワーク等を介して様々な場所に送ることが容易である。   In recent years, with the increase in capacity of recording media, a larger number of photographs have been taken than in the film photography era. Moreover, since such a photograph is obtained as a digital image, it can be easily sent to various places via a network or the like.

また、過去のフィルム写真もスキャナ等を利用してデジタル化することにより、どこでも玉石混淆の画像を鑑賞可能になっている。   In addition, past film photographs are digitized using a scanner or the like, so that it is possible to view images of chaotic chaos anywhere.

このように、近年では大量の画像を取得できるようになった反面、その中から見たい画像を検索するには大変な努力を要するようになってきている。以前のように、記念写真のような機会にしか撮影がなされなかった時代では、写真を整理するのも比較的容易であり、また、整理されているため検索も容易であるが、近年のような、写真が日常的に大量に撮られるようになると、どこに必要な画像があるかを見つけるのは難しい。   As described above, in recent years, it has become possible to acquire a large amount of images, but on the other hand, it has become a great effort to search for images to be viewed from among them. As before, in the era when photos were taken only on occasions such as commemorative photos, it is relatively easy to organize photos, and because they are organized, search is also easy, but as in recent years It's hard to find where you need the images when you get a lot of photos on a daily basis.

このような画像の検索に関する技術に関して、特許文献1において提案されているものがある。この特許文献1の提案は、鉄道路線の駅周辺等を撮影した画像を、データベースから読み出して年代を特定し、特定した画像を年代順に表示させるものである。
特開2005−184785号公報
There is a technique proposed in Patent Document 1 regarding such a technique related to image retrieval. The proposal of Patent Literature 1 reads an image obtained by photographing the vicinity of a railway line station and the like from a database, specifies the age, and displays the specified images in chronological order.
JP 2005-184785 A

ここで、特許文献1のように、単に年代を確定しても必ずしも懐かしい画像を検索できるとは限らず、実際には主要被写体部と背景部とを分けて考えないと検索できない場合がある。なぜなら、懐かしさは感情に属するもので、撮影当時の人物の表情や撮影当時に一緒にいた人等が重要な要因となるためである。また、人物の表情からは、年代を特定することが出来ないため、その人物の写っている写真が古い写真であるか否かを判定することは難しい。このような年代の特定の確度は背景部を利用する方が上がる。   Here, as in Patent Document 1, it is not always possible to search for a nostalgic image even if the age is simply determined. In fact, there are cases where the search cannot be performed unless the main subject portion and the background portion are considered separately. This is because nostalgia belongs to emotions, and the facial expressions of people at the time of shooting and the people who were together at the time of shooting are important factors. In addition, since the age cannot be specified from the facial expression of a person, it is difficult to determine whether or not the photograph of the person is an old photograph. The specific accuracy of this age is better when using the background.

本発明は、上記の事情に鑑みてなされたものであり、主要被写体と背景部とを分離して分析し、懐かしさを想起させる写真を確実に検索して表示させることが可能な画像表示装置、画像表示方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, an image display device capable of separating and analyzing a main subject and a background portion, and reliably searching for and displaying a photo reminiscent of nostalgia. An object is to provide an image display method and a program.

上記の目的を達成するために、本発明の第1の態様の画像表示装置は、顔画像を含む複数の画像を所定の優先順位で表示させるための画像表示装置において、上記画像における顔の表情を検出する顔画像検出部と、上記顔以外の背景部分の画像を検出する背景画像検出部と、上記顔の表情及び上記背景部分の画像から上記画像の表示優先度を評価する画像評価部と、上記表示優先度に応じた優先順位で上記画像を表示させる表示制御部とを備えたことを特徴とする。   In order to achieve the above object, an image display device according to a first aspect of the present invention is an image display device for displaying a plurality of images including a face image in a predetermined priority order. A face image detection unit that detects a background image other than the face, an image evaluation unit that evaluates display priority of the image from the facial expression and the background image, And a display control unit that displays the images in a priority order corresponding to the display priority.

また、上記の目的を達成するために、本発明の第2の態様の画像表示方法は、顔画像を含む複数の画像を所定の優先順位で表示させるための画像表示方法において、上記画像における顔部分を検出し、上記顔部分以外の背景部分の画像を検出し、上記顔部分及び上記背景部分の画像に基づいて上記画像の表示優先度を評価し、上記表示優先度に応じた優先順位で上記画像を表示させることを特徴とする。   In order to achieve the above object, an image display method according to the second aspect of the present invention is an image display method for displaying a plurality of images including a face image in a predetermined priority order. Detecting a portion, detecting an image of a background portion other than the face portion, evaluating the display priority of the image based on the image of the face portion and the background portion, and according to the priority order according to the display priority. The image is displayed.

また、上記の目的を達成するために、本発明の第3の態様の画像表示プログラムは、顔画像を含む複数の画像を所定の優先順位で表示させるための画像表示プログラムにおいて、上記画像における顔部分を検出するステップと、上記顔部分以外の背景部分の画像を検出するステップと、上記顔部分及び上記背景部分の画像に基づいて上記画像の表示優先度を評価するステップと、上記表示優先度に応じた優先順位で上記画像を表示させるステップとをコンピュータに実行させる。   In order to achieve the above object, an image display program according to a third aspect of the present invention is an image display program for displaying a plurality of images including face images in a predetermined priority order. A step of detecting a portion, a step of detecting an image of a background portion other than the face portion, a step of evaluating display priority of the image based on the images of the face portion and the background portion, and the display priority And causing the computer to execute the step of displaying the images in the priority order according to the above.

本発明によれば、主要被写体と背景部とを分離して分析し、懐かしさを想起させる写真を確実に検索して表示させることが可能な画像表示装置、画像表示方法、及びプログラムを提供することができる。   According to the present invention, it is possible to provide an image display device, an image display method, and a program capable of separating and analyzing a main subject and a background portion and reliably searching for and displaying a photo reminiscent of nostalgia. Can do.

以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明の一実施形態に係る画像表示装置を含む撮影装置の一例としてのデジタルカメラ100の構成を示すブロック図である。図1に示すデジタルカメラ100は、マイクロプロセッシングユニット(MPU)101と、操作部102と、撮影レンズ103と、オートフォーカス(AF)回路104と、絞り機構105と、絞り制御回路106と、撮像素子107と、アナログフロントエンド(AFE)回路108と、画像処理回路109と、表示制御回路110と、表示パネル111と、形状検出回路112と、距離検出回路113と、顔検出回路114と、圧縮/伸張部115と、記録制御回路116と、記録メディア117と、通信部118と、補助光発光回路119とを有して構成されている。また、このデジタルカメラ100は、ネットワーク300を介してサーバ400、PC500と通信自在に接続されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a digital camera 100 as an example of a photographing apparatus including an image display apparatus according to an embodiment of the present invention. A digital camera 100 shown in FIG. 1 includes a microprocessing unit (MPU) 101, an operation unit 102, a photographing lens 103, an autofocus (AF) circuit 104, an aperture mechanism 105, an aperture control circuit 106, and an image sensor. 107, analog front end (AFE) circuit 108, image processing circuit 109, display control circuit 110, display panel 111, shape detection circuit 112, distance detection circuit 113, face detection circuit 114, compression / The expansion unit 115 includes a recording control circuit 116, a recording medium 117, a communication unit 118, and an auxiliary light emitting circuit 119. The digital camera 100 is connected to a server 400 and a PC 500 via a network 300 so as to be able to communicate.

MPU101は、ユーザからの操作部102の操作に応じてデジタルカメラ100を構成する各ブロックをシーケンシャルに制御する。操作部102は、デジタルカメラ100による撮影を実行させるためのレリーズスイッチや、デジタルカメラ100の動作モードを撮影モード、再生モード、ダイジェスト再生モードの何れかに切り替えるための切り替えスイッチ、サーバ400から得られる情報表示のオンオフを切り替えるスイッチ等が含まれる。   The MPU 101 sequentially controls each block constituting the digital camera 100 according to the operation of the operation unit 102 from the user. The operation unit 102 is obtained from the server 400, a release switch for causing the digital camera 100 to perform shooting, a changeover switch for switching the operation mode of the digital camera 100 to any one of the shooting mode, the playback mode, and the digest playback mode. The switch etc. which switch on / off of information display are included.

また、MPU101は、ユーザによって写真撮影がなされた時刻を計測するためのタイマを有している。これにより、撮影によって得られる画像データに対して撮影時刻が関連付けられる。   The MPU 101 also has a timer for measuring the time when the user took a picture. Thereby, the photographing time is associated with the image data obtained by photographing.

撮影レンズ103は、被写体200からの像を撮像素子107に結像させる。この撮影レンズ103は、オートフォーカス(ピント合わせ)用のレンズを含んでいる。オートフォーカスの際に、MPU101は、ピント合わせレンズのレンズ位置をモニタしつつ、AF回路104を制御してピント合わせレンズのレンズ位置を切り替えて撮影レンズ103のピント合わせを行う。また、絞り機構105は、撮影レンズ103内又はその近傍に設けられ、シャッタや絞りの効果を奏する機構である。絞り機構105は、撮影開始時に絞り制御回路106によって所定の口径まで開かれ、撮影終了時に閉じられるものである。撮影時の絞り機構105の口径を変えることによって、撮影レンズ103の被写界深度が変化する。これによって、背景被写体のぼけ具合等を調整して、撮影時に主要被写体を浮かび上がらせたり、背景被写体をしっかりと描写したりするなどの表現の切替を行うことができる。   The taking lens 103 forms an image from the subject 200 on the image sensor 107. The photographing lens 103 includes a lens for autofocus (focusing). During autofocus, the MPU 101 controls the AF circuit 104 while switching the lens position of the focusing lens while monitoring the lens position of the focusing lens, and performs focusing of the photographing lens 103. The diaphragm mechanism 105 is a mechanism that is provided in or near the photographing lens 103 and produces the effects of a shutter and a diaphragm. The aperture mechanism 105 is opened to a predetermined aperture by the aperture control circuit 106 at the start of shooting and closed at the end of shooting. By changing the aperture of the aperture mechanism 105 at the time of shooting, the depth of field of the shooting lens 103 changes. Thereby, it is possible to switch the expression such as adjusting the degree of blurring of the background subject to make the main subject appear at the time of shooting or to clearly depict the background subject.

撮像素子107は、多数の画素が配列されて構成される受光面を有し、撮影レンズ103を介して受光した被写体200からの像を電気的な信号に変換する。本実施形態においては、撮像素子107にはCCD方式及びCMOS方式の何れを用いても良い。   The image sensor 107 has a light receiving surface configured by arranging a large number of pixels, and converts an image from the subject 200 received through the photographing lens 103 into an electrical signal. In the present embodiment, the image sensor 107 may use either a CCD system or a CMOS system.

AFE回路108は、CDS回路、ゲイン調整回路、AD変換回路等を含み、撮像素子107において得られるアナログ電気信号に対し相関二重サンプリング処理、ゲイン調整処理といったアナログ処理を行った後、これによって得られる画像信号をデジタルデータ化して画像処理回路109に入力する。また、AFE回路108には、撮像素子107を構成する複数の画素からの信号を一括して読み出す機能も設けられている。例えば、AFE回路108によって、4画素(2×2画素)や9画素(3×3画素)の信号をまとめて読み出し、これら読み出した電気信号を加算することでS/Nを向上させることができる。このような処理によって、撮像素子107の見かけ上の感度を上げること等ができる。   The AFE circuit 108 includes a CDS circuit, a gain adjustment circuit, an AD conversion circuit, and the like, and is obtained by performing analog processing such as correlated double sampling processing and gain adjustment processing on the analog electric signal obtained in the image sensor 107. The obtained image signal is converted into digital data and input to the image processing circuit 109. The AFE circuit 108 is also provided with a function of reading signals from a plurality of pixels constituting the image sensor 107 at a time. For example, the AFE circuit 108 can read out signals of 4 pixels (2 × 2 pixels) and 9 pixels (3 × 3 pixels) in a lump and add these read-out electric signals to improve the S / N. . By such processing, the apparent sensitivity of the image sensor 107 can be increased.

さらに、AFE回路108は、撮像素子107からの出力信号を取捨選択する機能も有し、撮像素子107の全有効画素のうち、限られた範囲の画素からの信号のみを抽出することもできる。一般に、撮像素子107は間引きを行うことで高速で信号を読み出すことができる。この機能を利用して、撮像素子107で構図確認用に得られた画像を高速で読み出して画像処理回路109において処理してから表示パネル111に表示すれば、ユーザは表示パネル111上に表示される画像を利用してフレーミングを行うことが可能である。   Further, the AFE circuit 108 also has a function of selecting an output signal from the image sensor 107, and can extract only signals from pixels in a limited range among all effective pixels of the image sensor 107. In general, the image sensor 107 can read signals at high speed by performing thinning. Using this function, if an image obtained for composition confirmation by the image sensor 107 is read at high speed and processed by the image processing circuit 109 and then displayed on the display panel 111, the user is displayed on the display panel 111. It is possible to perform framing using an image.

画像処理回路109は、AFE回路108から入力される画像データにおける色や階調、シャープネス等を補正処理したり、画像データのレベルを所定のレベルに増幅して、正しい濃淡及び正しい灰色レベルに調整したりする各種画像処理を行う。   The image processing circuit 109 corrects the color, gradation, sharpness, etc. in the image data input from the AFE circuit 108, or amplifies the level of the image data to a predetermined level to adjust it to the correct shading and the correct gray level. Various image processing is performed.

また、上述したようなフレーミング用の画像等の各種の画像を表示するために、画像処理回路109は、AFE回路108から入力される画像データを表示パネル111に表示可能なようにリサイズ(縮小)する機能も有する。   Further, in order to display various images such as the framing image as described above, the image processing circuit 109 resizes (reduces) the image data input from the AFE circuit 108 so that the image data can be displayed on the display panel 111. It also has a function to

表示制御回路110は、画像処理回路109で得られた画像データや記録メディア117に記録されている画像データを映像信号に変換し、表示パネル111に表示させる。表示パネル111は液晶表示パネルや有機EL表示パネル等の表示パネルである。また、表示制御回路110は、表示パネル111に複数の画像を重畳して表示させるマルチ画面表示機能も有している。このマルチ画面表示機能によって、撮影した画像や撮影する画像の上に、モード設定の文字表示やいろいろな警告表示を重畳表示することも可能である。   The display control circuit 110 converts the image data obtained by the image processing circuit 109 and the image data recorded on the recording medium 117 into a video signal, and displays it on the display panel 111. The display panel 111 is a display panel such as a liquid crystal display panel or an organic EL display panel. The display control circuit 110 also has a multi-screen display function for displaying a plurality of images superimposed on the display panel 111. With this multi-screen display function, it is also possible to superimpose a character display of mode setting and various warning displays on the captured image or the captured image.

形状検出回路112は、画像処理回路109によって得られる画像データにおける輪郭情報を検出する。   The shape detection circuit 112 detects contour information in the image data obtained by the image processing circuit 109.

距離検出回路113は、画像処理回路109によって得られる画像のコントラストを検出する。この距離検出回路113によって検出されるコントラストはオートフォーカスの際に用いられる。即ち、AF回路104によって撮影レンズ103のピント合わせレンズのレンズ位置を変化させながら、距離検出回路113によって画像のコントラストを逐次検出し、検出されるコントラストが最大となるレンズ位置でピント合わせレンズを停止させることで、撮影レンズ103のピント合わせを行うことができる。また、ピント合わせ時のレンズ位置の情報によって、主要被写体の距離や背景被写体の距離等を検出することも可能である。   The distance detection circuit 113 detects the contrast of the image obtained by the image processing circuit 109. The contrast detected by the distance detection circuit 113 is used during autofocus. That is, while the AF circuit 104 changes the lens position of the focusing lens of the photographing lens 103, the distance detection circuit 113 sequentially detects the contrast of the image, and stops the focusing lens at the lens position where the detected contrast is maximized. By doing so, the photographing lens 103 can be focused. It is also possible to detect the distance of the main subject, the distance of the background subject, and the like based on the information on the lens position at the time of focusing.

顔検出回路114は、画像処理回路109によって得られる画像内の特徴点(例えば、主要被写体が人物等であれば、目や鼻、口等)の分布から、主要被写体の特に顔部分の画像を検出する。   The face detection circuit 114 obtains an image of a particular face portion of the main subject from the distribution of feature points in the image obtained by the image processing circuit 109 (for example, if the main subject is a person, eyes, nose, mouth, etc.). To detect.

これら形状検出回路112、距離検出回路113、顔検出回路114は、写真の質の向上という意味では、写真撮影時にユーザがどのような写真を撮ろうとしているかを判定して、撮影制御を最適化するため(ポートレートモードに設定するなど)に利用される。また、画像の再生時には、顔検出回路114による顔検出の機能によって、その画像のうち、主要被写体(の顔部分)と背景部とを分けることが可能である。これにより、顔部分から目や口の形を検出し、それを後述する記録制御回路116内のデータベース116aと比較して無表情の顔か、或いは表情のある顔かを判定することができる。また、顔検出回路114によって検出した顔が画像内にいくつあるかを判定することによって、その画像が集合写真であるかを判定することができる。   The shape detection circuit 112, the distance detection circuit 113, and the face detection circuit 114, in the sense of improving the quality of a photograph, determine what kind of photograph the user is going to take at the time of photographing and optimize the photographing control. It is used for the purpose (such as setting to portrait mode). Further, when the image is reproduced, the main subject (the face portion) and the background portion of the image can be separated by the face detection function by the face detection circuit 114. Thereby, the shape of the eyes and mouth can be detected from the face portion, and compared with a database 116a in the recording control circuit 116 described later, it can be determined whether the face is an expressionless face or an expressional face. Further, by determining how many faces are detected in the image by the face detection circuit 114, it is possible to determine whether the image is a group photo.

圧縮/伸張部115は、撮影時に、画像処理回路109において処理された画像データを圧縮するとともに、撮影時に記録制御回路116を介して記録メディアから読み出した画像データを伸張する。   The compression / decompression unit 115 compresses the image data processed by the image processing circuit 109 at the time of shooting, and expands the image data read from the recording medium via the recording control circuit 116 at the time of shooting.

記録制御回路116は、圧縮/伸張部115で圧縮された画像データに撮影時刻等の付随データを付随させて記録メディア117に記録する。また、記録制御回路116は、顔部分等の画像を比較したりするためのデータベース116aを有している。このデータベース116aの内容は、カメラ製造時に記録してもよいが、デジタルカメラ100外部のサーバ400等からネットワーク経由で書き換え可能としてもよい。   The recording control circuit 116 records the image data compressed by the compression / expansion unit 115 on the recording medium 117 with accompanying data such as a shooting time. The recording control circuit 116 has a database 116a for comparing images such as face portions. The contents of the database 116a may be recorded when the camera is manufactured, but may be rewritable via a network from the server 400 or the like outside the digital camera 100.

通信部118は、記録メディア117に記録された画像データ等をデジタルカメラ100外部のパーソナルコンピュータ(以下、PCと称する)500やサーバ400等に送信したり、サーバ400等から各種の情報を受信したりする際の通信制御を行う。この通信部118によって、デジタルカメラ100で撮影した画像を他の人に転送したり、ネットワーク上のサービス(例えば、ネットワーク接続されたサイト等と連携したサービス)を利用して、情報を付加したり、受信したりすることができる。   The communication unit 118 transmits image data or the like recorded on the recording medium 117 to a personal computer (hereinafter referred to as a PC) 500 or a server 400 outside the digital camera 100, or receives various information from the server 400 or the like. Communication control when The communication unit 118 can transfer an image captured by the digital camera 100 to another person, or can add information using a service on a network (for example, a service linked with a network-connected site). Can be received.

補助光発光回路119は、撮影時の状況に応じて被写体200に補助光を照射する。これによって、撮影時の明るさの不足や不均一を防止する。   The auxiliary light emitting circuit 119 irradiates the subject 200 with auxiliary light according to the situation at the time of shooting. This prevents insufficient brightness and unevenness during shooting.

このような構成のデジタルカメラ100において、本実施形態では、多くの画像の中から、思い出を想起させやすい画像を選択して表示する、ダイジェスト再生を可能とする。即ち、ユーザが操作部102を操作してデジタルカメラ100の動作モードをダイジェスト再生モードとすると、記録メディア117に記録されている画像のうち、時代特定がしやすく、感情に訴えかけやすい画像が選択されて、その画像が優先的に表示パネル111に表示される。   In the digital camera 100 having such a configuration, in this embodiment, it is possible to perform digest playback by selecting and displaying an image that easily recalls a memory from among many images. That is, when the user operates the operation unit 102 to set the operation mode of the digital camera 100 to the digest playback mode, an image that is easy to identify the age and easily appeal to emotion is selected from the images recorded on the recording medium 117. Then, the image is preferentially displayed on the display panel 111.

以下、ダイジェスト再生モードによる再生についてさらに説明する。なお、以下の説明においてはダイジェスト再生モードの機能をデジタルカメラ100外部のサーバ上で実現する例について説明する。しかしながら、後述するサーバの機能をデジタルカメラ100のMPU101等に持たせることにより、デジタルカメラ100においてもダイジェスト再生モードでの再生が可能となる。   Hereinafter, playback in the digest playback mode will be further described. In the following description, an example in which the digest playback mode function is realized on a server outside the digital camera 100 will be described. However, by providing the MPU 101 of the digital camera 100 with a server function to be described later, the digital camera 100 can also perform playback in the digest playback mode.

図2は、本発明の一実施形態に係る画像表示装置を含む通信システムの構成を示す図である。図2に示す通信システムは、サーバ400、PC500、PC600がネットワーク300を介してデータ通信自在に接続されている。さらに、PC600にはデジタルカメラ100及びスキャナ700から画像データが入力され、この画像データは、ネットワーク300を介してサーバ400に送信可能になされている。ここで、図2の例は、1つのサーバ400内にデータベースや画像の判定機能を持たせたものである。これらの機能を複数のサーバに配分して、より負担の軽いシステムとすることもできる。   FIG. 2 is a diagram showing a configuration of a communication system including an image display device according to an embodiment of the present invention. In the communication system shown in FIG. 2, a server 400, a PC 500, and a PC 600 are connected via a network 300 so that data communication is possible. Further, image data is input to the PC 600 from the digital camera 100 and the scanner 700, and this image data can be transmitted to the server 400 via the network 300. Here, in the example of FIG. 2, a single server 400 has a database and image determination function. These functions can be distributed to a plurality of servers to provide a lighter system.

なお、以下に説明する通信システムは、例えば家族の年代史のような画像を整理する場合等、1枚ずつ画像を吟味するには、画像データの量が多すぎるような状況を対策することができるシステムである。   Note that the communication system described below can take measures against situations where the amount of image data is too large to examine images one by one, such as when organizing images such as family chronology. It is a system that can.

デジタルカメラ100で撮影した写真画像データやスキャナ700で取り込まれた写真画像データ(画像データ800)がPC600、ネットワーク300を介して送信される。ここで、デジタルカメラ100で得られる画像データには撮影日時やタイトルなどの付随情報が付与されるが、撮影時に得られる画像における顔位置のデータ等を付与しておいてもよい。顔位置のデータ等を付与しておくことで、サーバ400において、後述する顔検出が不要となるため、サーバ400の処理量を削減することが可能である。   Photo image data taken by the digital camera 100 and photo image data (image data 800) captured by the scanner 700 are transmitted via the PC 600 and the network 300. Here, the image data obtained by the digital camera 100 is attached with accompanying information such as a shooting date and time and a title. However, face position data in an image obtained at the time of shooting may be added. By assigning face position data and the like, the server 400 does not need face detection described later, and the processing amount of the server 400 can be reduced.

ネットワーク300には、そこに行きかう情報を駆使して各種のサービスを行う、サーバ400が存在する。本実施形態においては、ユーザによってダイジェスト再生モードが選択されると、サーバ400において、PC600から送られた画像データ800の中から、昔を懐かしむことのできる画像データ900が選択され、この選択された画像データ900に基づき、画像がPC500において閲覧可能なように表示制御される。これによってデジタルカメラ100で撮影された写真画像やスキャナ700で取り込まれた画像を他のユーザが共有することが可能である。   In the network 300, there is a server 400 that performs various services by making full use of information that goes there. In the present embodiment, when the digest playback mode is selected by the user, the server 400 selects the image data 900 that can be remembered from the past from the image data 800 sent from the PC 600. Display control is performed based on the image data 900 so that the image can be viewed on the PC 500. As a result, other users can share a photographic image captured by the digital camera 100 or an image captured by the scanner 700.

このようなサーバ400は、通信部401と、記録部402と、アクセス反応部403と、顔検出部404と、表情検出部405と、背景検出部406と、画像判定部407と、年代別データベース408と、画像選択部409と、表示制御部410とを有している。ここで、サーバ400の各機能はハードウェアで構成しても良いし、ソフトウェアとして構成することもできる。   Such a server 400 includes a communication unit 401, a recording unit 402, an access reaction unit 403, a face detection unit 404, a facial expression detection unit 405, a background detection unit 406, an image determination unit 407, a database classified by age. 408, an image selection unit 409, and a display control unit 410. Here, each function of the server 400 may be configured by hardware or may be configured as software.

通信部401は、サーバ400がネットワーク300を介して通信を行う際の通信制御を行う。記録部402は、ネットワーク300を介して送信されてくる画像データを記録する。アクセス反応部403は、ユーザから何らかの操作指示がなされた場合にその指示に応じた制御を行う。具体的には、ユーザから画像データの記録指示がなされた場合にはこの指示ととともに送信されてきた画像データを記録部402に記録する。一方、ユーザから画像データの再生指示がなされた場合にはそのときの再生モードに応じた画像選択指示を画像選択部409に行う。ここで、アクセス反応部403は、再生モードとして、上述したダイジェスト再生モードを少なくとも有しているものである。   The communication unit 401 performs communication control when the server 400 performs communication via the network 300. The recording unit 402 records image data transmitted via the network 300. When an operation instruction is given from the user, the access reaction unit 403 performs control according to the instruction. Specifically, when an instruction to record image data is given from the user, the image data transmitted together with this instruction is recorded in the recording unit 402. On the other hand, when the user gives an instruction to reproduce the image data, the image selection unit 409 is instructed to select an image corresponding to the reproduction mode at that time. Here, the access reaction unit 403 has at least the digest reproduction mode described above as a reproduction mode.

顔検出部404は記録部402に記録された画像における顔部を検出する。顔部は、デジタルカメラ100の顔検出回路114と同様に、画像内の特徴点(例えば、主要被写体が人物等であれば、目や鼻、口等)の分布から検出することが可能である。表情検出部405は顔検出部404において検出された顔部の画像から、その顔部の表情を検出することでダイジェスト再生モードの際の画像の表示優先度を評価する。   The face detection unit 404 detects a face part in the image recorded in the recording unit 402. Similar to the face detection circuit 114 of the digital camera 100, the face can be detected from the distribution of feature points in the image (for example, if the main subject is a person or the like, eyes, nose, mouth, etc.). . The facial expression detection unit 405 evaluates the display priority of the image in the digest reproduction mode by detecting the facial expression from the facial image detected by the facial detection unit 404.

背景検出部406は記録部402に記録された画像における背景部を検出する。ここでの背景部とは、画像800のうち、例えば図示破線枠801で示す人物以外の部分である。処理を簡単にするために、人物の顔部以外(人物の体も含む)を背景部として検出するようにしても良い。説明を簡単にするために、以下の説明においては、顔検出部404によって検出された顔部以外を背景として検出するものとする。画像判定部407は、背景検出部406によって検出された背景部において、文字等の思い出を想起させやすい被写体の有無を判定することでダイジェスト再生モードの際の画像の表示優先度を評価する。年代別データベース408は画像判定部407における思い出を想起させやすい被写体の判定に必要な各種データを年代別に記録している。例えば、年代別データベースには、年代別の文字の字体やキャッチフレーズのデータ、服装、乗り物のデータ等が記録されている。   The background detection unit 406 detects a background part in the image recorded in the recording unit 402. Here, the background portion is a portion of the image 800 other than the person shown by the broken line frame 801 in the figure, for example. In order to simplify the processing, a part other than the face part of the person (including the person's body) may be detected as the background part. In order to simplify the description, in the following description, a part other than the face detected by the face detection unit 404 is detected as the background. The image determination unit 407 evaluates the display priority of the image in the digest playback mode by determining the presence or absence of a subject that easily recalls memories such as characters in the background portion detected by the background detection unit 406. The age-specific database 408 records various types of data necessary for determining the subject that easily recalls the memories in the image determination unit 407 by age. For example, in the age-specific database, character fonts and catchphrase data according to age, clothing, vehicle data, and the like are recorded.

画像選択部409は、アクセス反応部403からの指示に従った画像データを記録部402から選択する機能を有するとともに、ユーザによってダイジェスト再生モードが選択された場合には表情検出部405によって検出された表情と画像判定部407によって判定された被写体とから思い出を想起させやすい画像データを選択する機能を有する。表示制御部410は、画像選択部409によって選択された画像データをPC500で閲覧可能なように表示制御する。   The image selection unit 409 has a function of selecting image data from the recording unit 402 according to an instruction from the access reaction unit 403, and is detected by the facial expression detection unit 405 when the digest reproduction mode is selected by the user. It has a function of selecting image data that easily recalls memories from the facial expression and the subject determined by the image determination unit 407. The display control unit 410 performs display control so that the image data selected by the image selection unit 409 can be viewed on the PC 500.

以下、図2に示す通信システムの動作について説明する。図3は、図2のサーバ400の動作を示すフローチャートである。   Hereinafter, the operation of the communication system shown in FIG. 2 will be described. FIG. 3 is a flowchart showing the operation of the server 400 of FIG.

ユーザから何らかの操作指示がなされた場合に、サーバ400のアクセス反応部403は、その指示が画像データの記録指示(画像データのアップロード指示)か、画像データの再生指示(画像データのダウンロード指示)かを判定する(ステップS1)。ステップS1の判定において画像の記録指示であった場合に、アクセス反応部403は、ユーザからの画像記録指示とともに送信されてきた画像データを記録部402に記録する(ステップS2)。   When an operation instruction is given by the user, the access reaction unit 403 of the server 400 determines whether the instruction is an instruction to record image data (an instruction to upload image data) or an instruction to reproduce the image data (an instruction to download image data). Is determined (step S1). If it is an image recording instruction in the determination in step S1, the access reaction unit 403 records the image data transmitted together with the image recording instruction from the user in the recording unit 402 (step S2).

以下のステップS3〜ステップS7の処理はダイジェスト再生モード時の画像データの再生をスムーズに行うための処理である。これらの処理は後述するダイジェスト再生モード時に行うようにしても良い。ステップS2において画像データを記録部402に記録した後、顔検出部404及び背景検出部406によって、記録部402に記録された画像データの背景部を検出する(ステップS3)。ステップS3の処理の詳細については後述する。   The following processes in steps S3 to S7 are processes for smoothly reproducing the image data in the digest reproduction mode. These processes may be performed in a digest playback mode to be described later. After the image data is recorded in the recording unit 402 in step S2, the background portion of the image data recorded in the recording unit 402 is detected by the face detection unit 404 and the background detection unit 406 (step S3). Details of the processing in step S3 will be described later.

背景部が検出された後、画像判定部407は、画像内に懐かしさを想起させる被写体を含む画像が存在しているか否かを判定する(ステップS4)。このステップS4の判定の詳細については後述する。ステップS4の判定において、画像内に懐かしさを想起させる被写体を含む画像が存在している場合に、画像判定部407は、懐かしさを想起させる被写体を含む画像を識別するための符号として、例えばステップS4の判定の際に得られる「なつかしい度」を画像データと対応付けて記録部402に記録する(ステップS5)。なお、詳細は後述するが、「なつかしい度」とは懐かしさを数値化するための指標のことであり、この「なつかしい度」が高い画像程、ダイジェスト再生モード時における表示優先度が高くなる。一方、ステップS4の判定において、画像内に懐かしさを想起させる被写体が存在していない場合には、ステップS5の処理をスキップする。   After the background portion is detected, the image determination unit 407 determines whether there is an image including a subject that recalls nostalgia in the image (step S4). Details of the determination in step S4 will be described later. If it is determined in step S4 that an image including a subject that recalls nostalgia exists in the image, the image determination unit 407 uses, for example, step S4 as a code for identifying an image that includes a subject that recalls nostalgia. The “nostalgic degree” obtained at the time of the determination is associated with the image data and recorded in the recording unit 402 (step S5). As will be described in detail later, “nostalgic degree” is an index for digitizing nostalgia, and an image having a higher “nostalgic degree” has a higher display priority in the digest playback mode. On the other hand, if it is determined in step S4 that there is no subject reminiscent of nostalgia in the image, the process in step S5 is skipped.

次に、サーバ400の表情検出部405は、顔検出部404において検出された顔部の画像が懐かしさを誘う表情の画像であるか否かを判定する(ステップS6)。このステップS6の判定の詳細については後述する。ステップS6の判定において、顔部の画像が懐かしさを誘う表情の画像である場合に、表情検出部405は、懐かしさを誘う表情の画像を識別するための符号として、例えばステップS6の判定の際に得られる「なつかしい度」を画像データと対応付けて記録部402に記録する(ステップS7)。なお、ステップS5において「なつかしい度」が既に記録されている場合にはステップS5の結果にステップS6で得られる「なつかしい度」を加算又は乗算して記録する。その後に図3の処理を終了する。一方、ステップS6の判定において、顔部の画像が懐かしさを誘う表情の画像でない場合には、ステップS7の処理をスキップする。   Next, the facial expression detection unit 405 of the server 400 determines whether or not the facial image detected by the face detection unit 404 is a facial expression image that invites nostalgia (step S6). Details of the determination in step S6 will be described later. In the determination in step S6, when the facial image is a facial expression image that invites nostalgia, the facial expression detection unit 405 uses, for example, the determination in step S6 as a code for identifying the facial expression image that invites nostalgia. The obtained “nostalgic degree” is recorded in the recording unit 402 in association with the image data (step S7). If the “nostalgic degree” is already recorded in step S5, the “nostalgic degree” obtained in step S6 is added to or multiplied by the result of step S5 and recorded. Thereafter, the processing of FIG. 3 is terminated. On the other hand, if it is determined in step S6 that the face image is not a facial expression image that invites nostalgia, the process of step S7 is skipped.

また、ステップS1の判定において画像の再生指示であった場合に、アクセス反応部403は、その再生指示がダイジェスト再生モードの再生であるか否かを判定する(ステップS8)。ステップS8の判定において、ダイジェスト再生モードの再生である場合に、アクセス反応部403は、画像選択部409にダイジェスト再生モード用の画像選択指示を送る。これを受けて画像選択部409は、記録部402に記録されている画像データの中から「なつかしい度」が付帯されている画像データを抽出する(ステップS9)。そして、画像選択部409は、抽出した画像データの中から、「なつかしい度」が高いものを選択する(ステップS10)。これは、「なつかしい度」が最も高い画像データのみを選択するようにしても良いし、「なつかしい度」が所定の閾値よりも高い画像データを全て選択するようにしても良い。「なつかしい度」の高い画像データが選択された後、表示制御部410は、画像選択部409において選択された画像データを年代が古い順にPC500に表示させるように制御する(ステップS11)。その後に図3の処理を終了する。ここで、厳密な年代特定ができるとは限らないので、ステップS11の表示順は、ある程度の自由度を認めても良い。また、表示の際に「なつかしい度」の高い画像ほど、表示の際の拡大率を大きくするようにしてもよい。   Further, when it is an instruction to reproduce an image in the determination in step S1, the access reaction unit 403 determines whether or not the reproduction instruction is reproduction in the digest reproduction mode (step S8). If it is determined in step S8 that the reproduction is in the digest reproduction mode, the access reaction unit 403 sends an image selection instruction for the digest reproduction mode to the image selection unit 409. In response to this, the image selection unit 409 extracts image data attached with “nostalgic degree” from the image data recorded in the recording unit 402 (step S9). Then, the image selection unit 409 selects one having a high “nostalgic degree” from the extracted image data (step S10). This may be such that only image data having the highest “nostalgic degree” may be selected, or all image data having a “nostalgic degree” higher than a predetermined threshold may be selected. After image data with a high “nostalgic degree” is selected, the display control unit 410 controls the image data selected by the image selection unit 409 to be displayed on the PC 500 in order of age (step S11). Thereafter, the processing of FIG. 3 is terminated. Here, since it is not always possible to specify the exact age, the display order in step S11 may accept a certain degree of freedom. Further, an enlargement rate at the time of display may be increased for an image having a higher “nostalgic degree” at the time of display.

また、ステップS8の判定において、ダイジェスト再生モードの再生でない場合に、アクセス反応部403は、表示制御部410に記録部402に記録されている画像の一覧表示をPC500に表示させるように指示を送る(ステップS12)。この場合には、ユーザによって選択された画像が画像選択部409によって選択された後、表示制御部410の制御の下、PC500に表示させる。   If it is determined in step S8 that the playback is not in the digest playback mode, the access reaction unit 403 sends an instruction to the display control unit 410 to display a list display of images recorded in the recording unit 402 on the PC 500. (Step S12). In this case, after the image selected by the user is selected by the image selection unit 409, the image is displayed on the PC 500 under the control of the display control unit 410.

図4は、図3のステップS3の背景部検出のための顔検出処理の一例の処理手順について示すフローチャートである。なお、顔検出処理は必ずしも図4に示す処理に限るものではない。また、図4に示す顔検出処理はデジタルカメラ100の顔検出回路114において行う処理と同一の処理である。   FIG. 4 is a flowchart illustrating an example of a processing procedure of face detection processing for background portion detection in step S3 of FIG. The face detection process is not necessarily limited to the process shown in FIG. Further, the face detection process shown in FIG. 4 is the same as the process performed in the face detection circuit 114 of the digital camera 100.

まず、顔検出部404は、記録部402から画像データを読み出し、その画像における陰影を強調する(ステップS101)。これは、画像のコントラストを強調する処理である。例えば、図5に示す画像800に対して陰影強調処理を施した場合、顔部付近802の画像は、参照符号803で示すように影のある部分や輪郭部分が強調された画像となる。   First, the face detection unit 404 reads out image data from the recording unit 402 and emphasizes a shadow in the image (step S101). This is a process for enhancing the contrast of an image. For example, when shadow enhancement processing is performed on the image 800 shown in FIG. 5, an image in the vicinity of the face 802 is an image in which a shadowed part or an outline part is emphasized as indicated by reference numeral 803.

画像の陰影を強調した後、顔検出部404は目鼻部のパターンの設定を行う(ステップS102)。図5の参照符号804で目鼻部パターンの一例を示している。この目鼻部パターン804と陰影強調後画像803とのマッチング処理によって顔検出を行うわけであるが、通常、撮影によって得られる画像における顔の大きさや向きは様々であるため、目鼻部パターン804も顔の向きや大きさに対応して複数用意しておく。ステップS102の処理は、複数用意しておいた目鼻部パターン804の中から1つを設定する処理である。   After emphasizing the shadow of the image, the face detection unit 404 sets the pattern of the eyes and nose (step S102). An example of an eye-nose pattern is indicated by reference numeral 804 in FIG. Face detection is performed by matching the eye-nose pattern 804 with the shadow-enhanced image 803. Usually, the face size and orientation in an image obtained by photographing vary, and therefore the eye-nose pattern 804 is also a face. Prepare a number corresponding to the direction and size of the. The process of step S102 is a process for setting one of a plurality of prepared eye / nose pattern 804.

次に、顔検出部404は、陰影強調後画像(実際には顔部付近802以外も含まれている)803と目鼻部パターン804との間でマッチング処理を行う(ステップS103)。これは、目鼻部パターン804によって陰影強調後画像803を走査しながら両者の一致度を例えば相関演算によって求める処理である。このマッチング処理の後、顔検出部404は、目鼻部パターン804がマッチングした位置が存在していたか否か、即ち陰影強調後画像803と目鼻部パターン804との一致度が所定量以上高い位置が画像内に存在していたかを判定する(ステップS104)。ステップS104の判定において、マッチング位置が存在していた場合に、顔検出部404はその位置の画像を顔部の画像として検出する(ステップS105)。   Next, the face detection unit 404 performs a matching process between the shadow-enhanced image (actually, other than the vicinity of the face 802 is included) 803 and the eye-nose pattern 804 (step S103). This is a process for obtaining the degree of coincidence between the images by scanning the shadow-enhanced image 803 with the eye-nose pattern 804, for example, by correlation calculation. After this matching processing, the face detection unit 404 determines whether there is a position where the eye / nose pattern 804 is matched, that is, a position where the degree of coincidence between the shadow enhanced image 803 and the eye / nose pattern 804 is higher than a predetermined amount. It is determined whether the image exists in the image (step S104). If it is determined in step S104 that a matching position exists, the face detection unit 404 detects the image at that position as a face image (step S105).

一方、ステップS104の位置において、マッチング位置が存在していない場合には、画像内の顔部の向きや大きさが目鼻部パターン804と異なっている可能性がある。また、画像内に複数の顔部が存在している場合には1つの目鼻部パターン804で全ての顔部を検出できるとは限らない。そこで、ステップS104の判定においてマッチング位置が存在していない場合、若しくはステップS105の後、顔検出部404は、顔検出処理を終了するか否かを、全ての目鼻部パターン804を用いてマッチング処理を行ったか否かを判定することによって判定する(ステップS106)。ステップS106の判定において、まだ、全ての目鼻部パターン804を用いてマッチング処理を行っていない場合に、顔検出部404は、別の目鼻部パターンに切り替えた後(ステップS107)、ステップS103に戻り、再びマッチング処理を行う。一方、全ての目鼻部パターン804を用いてマッチング処理を行った場合には、顔部の位置情報を背景検出部406に出力して顔検出処理を終了する。これを受けて背景検出部406は、ステップS105において検出された顔部以外を全て背景部の画像として検出する(ステップS108)。このようにして背景部が検出されると、処理が図3のステップS4に進む。   On the other hand, if there is no matching position at the position of step S104, the orientation and size of the face in the image may be different from the eye-nose pattern 804. Further, when there are a plurality of face portions in the image, not all face portions can be detected with one eye-nose portion pattern 804. Therefore, if there is no matching position in the determination in step S104, or after step S105, the face detection unit 404 uses all the eye-nose pattern 804 to determine whether to end the face detection process. It is determined by determining whether or not it has been performed (step S106). If it is determined in step S106 that matching processing has not been performed using all the eye-nose pattern 804, the face detection unit 404 switches to another eye-nose pattern (step S107), and returns to step S103. The matching process is performed again. On the other hand, when the matching process is performed using all the eyes and nose pattern 804, the position information of the face is output to the background detection unit 406, and the face detection process is terminated. In response to this, the background detection unit 406 detects all images other than the face detected in step S105 as images of the background (step S108). When the background portion is detected in this way, the process proceeds to step S4 in FIG.

図6は、図3のステップS4の懐かしさを想起させる被写体が存在しているか否かの判定処理について示すフローチャートである。ここで、本実施形態においては、背景部の画像の中に、懐かしさを想起させる被写体が存在している場合には、その被写体の年代特定のしやすさに応じて「なつかしい度」を設定する。この「なつかしい度」の高い被写体ほど、年代特定がしやすく、またそれを見たユーザに懐かしさを想起させやすい。   FIG. 6 is a flowchart showing a process for determining whether or not there is a subject reminiscent of nostalgia in step S4 of FIG. Here, in the present embodiment, when a subject that recalls nostalgia exists in the background image, the “nostalgic degree” is set according to the ease of specifying the age of the subject. . The higher the “nostalgic” subject, the easier it is to specify the age, and the user who sees it is more likely to recall nostalgia.

図6において、画像判定部407は、まず背景部の画像内に、駅名や看板等の文字を含む被写体が存在しているか否かを判定する(ステップS201)。このために画像判定部407は図7に示す文字検出処理を行う。   In FIG. 6, the image determination unit 407 first determines whether or not a subject including characters such as a station name and a signboard exists in the background image (step S201). For this purpose, the image determination unit 407 performs a character detection process shown in FIG.

ここで、図7及び図8を参照してステップS201の判定を行うための文字検出処理について説明する。図7は図6のステップS201の判定において用いられる文字検出処理の一例を示すフローチャートである。また、図8は図7の文字検出処理の概念について説明するための図である。   Here, the character detection process for performing the determination of step S201 will be described with reference to FIGS. FIG. 7 is a flowchart showing an example of character detection processing used in the determination in step S201 of FIG. FIG. 8 is a diagram for explaining the concept of the character detection process of FIG.

文字検出は、図8に示す文字画像の線部分805と線部分805の間に存在する空白部分806とをそれぞれ検出することにより行う。   Character detection is performed by detecting the line portion 805 and the blank portion 806 existing between the line portions 805 of the character image shown in FIG.

まず、画像判定部407は背景部の画像のコントラストを強調してコントラスト強調画像I1を取得する(ステップS2011)。次に、画像判定部407は背景部の画像を2値化して2値化画像I2を取得する(ステップS2012)。   First, the image determination unit 407 acquires a contrast-enhanced image I1 by enhancing the contrast of the background image (step S2011). Next, the image determination unit 407 binarizes the background image to obtain a binarized image I2 (step S2012).

その後、画像判定部407はコントラスト強調画像I1と2値化画像I2との差分からコントラスト強調画像I1と2値化画像I2の一致度を求める(ステップS2013)。そして、画像判定部407は背景部の画像内にコントラスト強調画像I1と2値化画像I2の一致度が大きい部分(即ち差分が小さい部分)があるか否かを判定する(ステップS2014)。ステップS2014の判定において、コントラスト強調画像I1と2値化画像I2の一致度が大きい部分がない場合に、画像判定部407は背景部の画像内に文字を含む被写体は存在しないと判定する(ステップS2017)。   Thereafter, the image determination unit 407 obtains the degree of coincidence between the contrast enhanced image I1 and the binarized image I2 from the difference between the contrast enhanced image I1 and the binarized image I2 (step S2013). Then, the image determination unit 407 determines whether or not there is a portion where the degree of coincidence between the contrast-enhanced image I1 and the binarized image I2 is large (that is, a portion where the difference is small) in the background image (step S2014). If it is determined in step S2014 that there is no portion where the degree of coincidence between the contrast-enhanced image I1 and the binarized image I2 is large, the image determination unit 407 determines that there is no subject including characters in the background image (step S2014). S2017).

一方、ステップS2014の判定において、コントラスト強調画像I1と2値化画像I2の一致度が大きい部分がある場合に、画像判定部407はその部分が線画像で構成されていると判定する。そして、画像判定部407は一致度が高い部分の周囲の画像を検出する(ステップS2015)。そして、検出した部分の画像内に空白部、即ち低コントラスト部が多く占めているか否かを判定する(ステップS2016)。ステップS2016の判定において、空白部が少ない場合に、画像判定部407はその部分の画像が文字画像の特徴を有しておらず、文字画像は存在しないと判定する(ステップS2017)。一方、ステップS2016の判定において、空白部が多い場合に、画像判定部407はその部分の画像が文字画像の特徴を有しており、文字を含む被写体が存在していると判定する(ステップS2018)。   On the other hand, if it is determined in step S2014 that there is a portion where the degree of coincidence between the contrast-enhanced image I1 and the binarized image I2 is large, the image determination unit 407 determines that the portion is configured by a line image. Then, the image determination unit 407 detects an image around a portion with a high degree of coincidence (step S2015). Then, it is determined whether or not many blank portions, that is, low contrast portions occupy the detected portion of the image (step S2016). If it is determined in step S2016 that the number of blank portions is small, the image determination unit 407 determines that the image of that portion does not have character image characteristics and that there is no character image (step S2017). On the other hand, if it is determined in step S2016 that there are many blank portions, the image determination unit 407 determines that the image of the portion has the characteristics of a character image and that a subject including characters exists (step S2018). ).

ここで、再び図6の説明に戻る。ステップS201の判定において、背景部の画像内に、文字を含む被写体が存在している場合に、画像判定部407は「なつかしい度」に5点を加える(ステップS202)。即ち、文字情報は、その当時に行った場所や当時の雰囲気を読み取る明確な材料となりうるので、懐かしさを想起させやすい情報と考えられる。したがって、「なつかしい度」の点数を高めにしている。「なつかしい度」を設定した後、画像判定部407は、検出した文字を年代別データベース408に記録されている文字画像と照合して年代の特定を行う(ステップS211)。そして、図6の処理を抜けて、図3のステップS5に移行する。   Here, it returns to description of FIG. 6 again. If it is determined in step S201 that an object including characters is present in the background image, the image determination unit 407 adds 5 points to the “nostalgic level” (step S202). That is, the character information can be a clear material for reading the place and the atmosphere at that time, and is considered to be information that makes it easy to recall nostalgia. Therefore, the score of “nostalgic degree” is increased. After setting the “nostalgic degree”, the image determination unit 407 collates the detected character with the character image recorded in the age-specific database 408 and specifies the age (step S211). Then, the process of FIG. 6 is exited and the process proceeds to step S5 of FIG.

一方、ステップS201の判定において、背景部の画像内に、文字を含む被写体が存在していない場合に、画像判定部407は、背景部の画像内に、乗り物被写体が含まれているか否かを、例えば年代別データベース408に記録されている乗り物画像とのマッチングをとることによって判定する(ステップS203)。ステップS203の判定において、背景部の画像内に乗り物被写体が含まれている場合に、画像判定部407は「なつかしい度」に4点を加える(ステップS204)。即ち、電車やバス等の乗り物も看板や標識等の文字と同様に、場所を特定したり年代による変遷を示したりしやすいので、文字情報の次に「なつかしい度」を高くしている。「なつかしい度」を設定した後、画像判定部407は、検出した乗り物被写体より年代の特定を行う(ステップS211)。そして、図6の処理を抜けて、図3のステップS5に移行する。   On the other hand, in the determination in step S201, when there is no subject including characters in the background image, the image determination unit 407 determines whether or not the vehicle subject is included in the background image. For example, the determination is made by matching with a vehicle image recorded in the age-specific database 408 (step S203). When the vehicle subject is included in the background image in the determination in step S203, the image determination unit 407 adds 4 points to the “nostalgic degree” (step S204). In other words, vehicles such as trains and buses, like characters such as signs and signs, are easy to identify places and show changes over time, so the “nostalgic degree” is set next to character information. After setting the “nostalgic degree”, the image determination unit 407 identifies the age based on the detected vehicle subject (step S211). Then, the process of FIG. 6 is exited and the process proceeds to step S5 of FIG.

一方、ステップS203の判定において、背景部の画像内に、乗り物被写体が含まれていない場合に、画像判定部407は、背景部の画像内に、流行の服を着ている被写体が含まれているかを、例えば年代別データベース408に記録されている流行服画像とのマッチング(襟や袖の形やネクタイの太さや色合い等も利用)をとることによって判定する(ステップS205)。ステップS205の判定において、背景部の画像内に流行の服を着ている被写体が含まれている場合に、画像判定部407は「なつかしい度」に3点を加える(ステップS206)。「なつかしい度」を設定した後、画像判定部407は、検出した流行服の年代の特定を行う(ステップS211)。そして、図6の処理を抜けて、図3のステップS5に移行する。   On the other hand, in the determination in step S203, when the vehicle subject is not included in the background image, the image determination unit 407 includes the subject wearing fashionable clothes in the background image. For example, it is determined by matching with the trendy clothing image recorded in the age-specific database 408 (also using the shape of the collar, sleeve, tie thickness, color, etc.) (step S205). If it is determined in step S205 that a subject wearing fashionable clothes is included in the background image, the image determination unit 407 adds three points to the “degree of nostalgia” (step S206). After setting the “nostalgic degree”, the image determination unit 407 identifies the age of the detected fashionable clothes (step S211). Then, the process of FIG. 6 is exited and the process proceeds to step S5 of FIG.

一方、ステップS205の判定において、背景部の画像内に、流行の服を着ている被写体が含まれていない場合に、画像判定部407は、背景部の画像に建物被写体が含まれているか又は画像が室内で撮影されたものであるか否かを判定する(ステップS207)。ステップS207の判定において、背景部の画像に建物被写体が含まれているか又は画像が室内で撮影されたものである場合に、画像判定部407は「なつかしい度」に2点を加える(ステップS208)。即ち、建物や室内が明確に写っている場合も場所を特定する要素が写りこんでいるとして「なつかしい度」に点数を加えるようにしている。「なつかしい度」を設定した後、画像判定部407は、検出した建物被写体や室内の画像から年代の特定を行う(ステップS211)。そして、図6の処理を抜けて、図3のステップS5に移行する。   On the other hand, if it is determined in step S205 that the background image does not include a subject wearing fashionable clothes, the image determination unit 407 includes a building subject in the background image. It is determined whether the image is taken indoors (step S207). In the determination in step S207, if the background image includes a building subject or the image is taken indoors, the image determination unit 407 adds two points to the “nostalgic level” (step S208). . That is, even when a building or a room is clearly shown, a point is added to the “nostalgic degree” assuming that an element for specifying the location is reflected. After the “nostalgic degree” is set, the image determination unit 407 identifies the age from the detected building subject or indoor image (step S211). Then, the process of FIG. 6 is exited and the process proceeds to step S5 of FIG.

一方、ステップS207の判定において、背景部の画像内に、建物被写体が含まれておらず、又は画像が室内で撮影されたものでもない場合に、画像判定部407は、背景部の画像における地面が舗装されているか否かを判定する(ステップS209)。ステップS209の判定において、背景部の画像における地面が舗装されたものでない場合に、画像判定部407は「なつかしい度」に1点を加える(ステップS210)。即ち、市街地等で地面の舗装がなされていない画像は古い画像と考えられるので、この場合にも「なつかしい度」に点数を加えるようにする。「なつかしい度」を設定した後、画像判定部407は、検出した地面の舗装の具合から年代の特定を行う(ステップS211)。そして、図6の処理を抜けて、図3のステップS5に移行する。   On the other hand, if it is determined in step S207 that the building subject is not included in the background image or the image is not taken indoors, the image determination unit 407 determines that the ground in the background image is the ground image. It is determined whether or not is paved (step S209). If it is determined in step S209 that the ground in the background image is not paved, the image determination unit 407 adds one point to the “nostalgic level” (step S210). That is, an image in which the ground is not paved in an urban area or the like is considered an old image. In this case as well, a score is added to the “nostalgic degree”. After the “nostalgic degree” is set, the image determination unit 407 identifies the age based on the detected level of paving on the ground (step S211). Then, the process of FIG. 6 is exited and the process proceeds to step S5 of FIG.

一方、ステップS209の判定において、背景部の画像における地面が舗装されている場合には「なつかしい度」に点数を加えずに、図6の処理を抜ける。この場合には、図3のステップS4の判定において、背景部の画像内に懐かしさを想起させる被写体が存在していないと判定される。   On the other hand, if it is determined in step S209 that the ground in the background image is paved, the process of FIG. In this case, in the determination in step S4 of FIG. 3, it is determined that there is no subject reminiscent of nostalgia in the background image.

図6の処理のような「なつかしい度」の判定によって、背景に年代を想起せしめる被写体を含む画像を優先して表示させることができる。なお、図3のステップS4の処理においては、証明写真のように単なる壁を背景とする画像や、空や山のみを背景とする画像では「なつかしい度」が高まらない。また、図3のステップS4の処理では自然を前にした集合写真等でも「なつかしい度」は高まらない。しかしながら、このような集合写真は懐かしさを想起させる画像となりうるので、このような画像を判定するためにステップS6における人物の表情が懐かしさを想起させる表情であるか否かの判定を行う。   By determining “nostalgic degree” as in the process of FIG. 6, an image including a subject that recalls the age in the background can be preferentially displayed. In the process of step S4 in FIG. 3, the “nostalgic degree” does not increase for an image with a simple wall background, such as an ID photo, or an image with only the sky or mountains in the background. Further, in the process of step S4 in FIG. 3, the “nostalgic degree” does not increase even in a group photo or the like with nature in front. However, since such a group photo can be an image reminiscent of nostalgia, in order to determine such an image, it is determined whether or not the facial expression of the person in step S6 is an expression reminiscent of nostalgia.

図9〜図12を参照して、図3のステップS6の懐かしさを誘う表情であるか否かの判定処理について説明する。ここで、以下に説明する処理における「懐かしさを誘う表情」とは、必ずしも個々人の泣き笑いといった表情のみを示すものではなく、一緒に写っている人との関係性も含めて判定する。したがって、無表情でも、多くの人とかしこまって写っているものは、その場に相応しい表情であるので、これも懐かしい表情としてカウントできるようにする。   With reference to FIGS. 9-12, the determination process of whether it is the facial expression which invites the nostalgia of FIG.3 S6 is demonstrated. Here, “an expression that invites nostalgia” in the processing described below does not necessarily indicate only an expression such as an individual's laughter, but also includes a relationship with a person who is shown together. Therefore, even if there are no facial expressions, what is reflected in many people is a facial expression appropriate for the place, so that it can also be counted as a nostalgic facial expression.

図9は、人物の泣き笑いといった「顔の表情に応じたなつかしい度」を求めるためのフローチャートである。また、図12は、画像内に複数の人物が存在する場合の、「その人物同士の関係性に応じたなつかしい度」を求めるためのフローチャートである。   FIG. 9 is a flowchart for obtaining “a nostalgic degree corresponding to facial expressions” such as a person's crying and laughing. FIG. 12 is a flowchart for obtaining “a nostalgic degree corresponding to the relationship between the persons” when there are a plurality of persons in the image.

まず、図9から説明する。表情検出部405は、顔検出部404において検出された顔部の画像からその表情を検出する(ステップS301)。   First, FIG. 9 will be described. The facial expression detection unit 405 detects the facial expression from the facial image detected by the face detection unit 404 (step S301).

ここで、図10及び図11を参照して表情検出処理について説明する。図10は図9のステップS301の表情検出処理の一例を示すフローチャートである。また、図11は図10の表情検出処理の概念について説明するための図である。   Here, the facial expression detection process will be described with reference to FIGS. FIG. 10 is a flowchart showing an example of facial expression detection processing in step S301 of FIG. FIG. 11 is a diagram for explaining the concept of the facial expression detection process of FIG.

まず、表情検出部405は、顔部の画像の陰影分布から、目部、鼻部、口部を検出する(ステップS3011)。次に、表情検出部405は、検出した目部、鼻部、口部の位置関係から、顔が正面を向いているか否かを判定する(ステップS3012)。ステップS3012においては、例えば、両目が顔の画面の何れかに偏って配置されている場合には顔が横を向いていると判定する。また、両目が顔の左右方向に均等に配置され、鼻部が顔の上下方向の略中央部に配置されているような場合には正面を向いていると判定する。   First, the facial expression detection unit 405 detects an eye part, a nose part, and a mouth part from the shadow distribution of the face image (step S3011). Next, the facial expression detection unit 405 determines whether the face is facing the front from the detected positional relationship between the eyes, nose, and mouth (step S3012). In step S <b> 3012, for example, when both eyes are biased to any face screen, it is determined that the face is facing sideways. Further, when both eyes are evenly arranged in the left-right direction of the face and the nose part is arranged at a substantially central part in the up-down direction of the face, it is determined that the front is facing.

ステップS3012の判定において、顔が正面を向いている場合に、表情検出部405は、ステップS3011において検出した口部における唇の両端を結ぶ直線の中心位置L1(図11(a)参照)を検出する(ステップS3013)。次に、表情検出部405は、唇の上部中心位置L2(図11(a)参照)を検出する(ステップS3014)。さらに、表情検出部405はステップS3011において検出した鼻部の下位置N1(図11(a)参照)を検出する(ステップS3015)。   If it is determined in step S3012, the facial expression detection unit 405 detects the center position L1 of the straight line connecting both ends of the lips in the mouth detected in step S3011 (see FIG. 11A). (Step S3013). Next, the facial expression detection unit 405 detects the upper center position L2 of the lips (see FIG. 11A) (step S3014). Further, the facial expression detection unit 405 detects the lower position N1 (see FIG. 11A) detected in step S3011 (step S3015).

次に、表情検出部405は、L1とN1との距離とL2とN1との距離の差分を求める(ステップS3016)。そして、この差分から顔の表情を判定する。例えば、笑顔の場合には図11(b)に示すようにして唇の両端が持ち上がった状態となり、L1とN1との距離とL2とN1との距離と差分が図11(c)に示す真顔の場合に比べて小さくなると考えられる。また、泣き顔の場合には図11(d)に示すようにして唇の両端が下がった状態となり、L1とN1との距離とL2とN1との距離と差分が図11(c)に示す真顔の場合に比べて大きくなると考えられる。したがって、ステップS3016で求めた差分を笑顔、真顔、泣き顔を示す所定の閾値と比較することで顔の表情を判定することが可能である。   Next, the facial expression detection unit 405 obtains a difference between the distance between L1 and N1 and the distance between L2 and N1 (step S3016). Then, the facial expression is determined from this difference. For example, in the case of a smile, both ends of the lips are lifted as shown in FIG. 11B, and the distance between L1 and N1, the distance between L2 and N1, and the difference between them are the true faces shown in FIG. It is considered to be smaller than the case of. In the case of a crying face, both ends of the lips are lowered as shown in FIG. 11 (d), and the distance between L1 and N1 and the distance and difference between L2 and N1 are the true faces shown in FIG. 11 (c). It is thought that it becomes larger than the case of. Therefore, the facial expression can be determined by comparing the difference obtained in step S3016 with a predetermined threshold value indicating smile, true face, or crying face.

以上のような考え方に基づいて、表情検出部405は、ステップS3016で求めた差分が、泣き顔を示す閾値よりも大きいか否かを判定する(ステップS3017)。ステップS3017の判定において、差が泣き顔を示す閾値よりも大きい場合に、表情検出部405は顔の表情が泣き顔と判定する(ステップS3018)。その後、図10の処理を抜ける。一方、ステップS3017の判定において、差が泣き顔を示す閾値よりも小さい場合に、表情検出部405は、差が笑顔を示す閾値よりも小さいか否かを判定する(ステップS3019)。ステップS3019の判定において、差が笑顔を示す閾値よりも小さい場合に、表情検出部405は顔の表情が笑顔と判定する(ステップS3020)。その後、図10の処理を抜ける。一方、ステップS3019の判定において、差が笑顔を示す閾値よりも大きい場合に、表情検出部405は、表情が真顔であると判定する(ステップS3021)。その後、図10の処理を抜ける。   Based on the above concept, the facial expression detection unit 405 determines whether or not the difference obtained in step S3016 is greater than a threshold value indicating a crying face (step S3017). If it is determined in step S3017 that the difference is larger than the threshold value indicating a crying face, the facial expression detection unit 405 determines that the facial expression is a crying face (step S3018). Thereafter, the process of FIG. 10 is exited. On the other hand, if it is determined in step S3017 that the difference is smaller than a threshold value indicating a crying face, the facial expression detection unit 405 determines whether the difference is smaller than a threshold value indicating a smile (step S3019). If the difference is smaller than the threshold value indicating smile in step S3019, the facial expression detection unit 405 determines that the facial expression is smiling (step S3020). Thereafter, the process of FIG. 10 is exited. On the other hand, if it is determined in step S3019 that the difference is larger than the threshold value indicating smile, the facial expression detection unit 405 determines that the facial expression is a true face (step S3021). Thereafter, the process of FIG. 10 is exited.

また、ステップS3012の判定において、顔が正面を向いていない場合には、ステップS3013〜ステップS3021の処理によって表情を判定することが困難である。そこで、この場合には判定を簡易化する。即ち、表情検出部405は口部において歯(白部分)が検出できるか否かを判定する(ステップS3022)。このステップS3022の判定において、歯が検出できた場合に、表情検出部405は、表情が笑顔であると判定する(ステップS3023)。その後、図10の処理を抜ける。一方、ステップS3022の判定において、歯が検出できなかった場合には、表情の検出が不能であったとして、そのまま図10の処理を抜ける。   In the determination in step S3012, if the face is not facing the front, it is difficult to determine the facial expression by the processing in steps S3013 to S3021. Therefore, in this case, the determination is simplified. That is, the facial expression detection unit 405 determines whether teeth (white portions) can be detected at the mouth (step S3022). If it is determined in step S3022 that teeth can be detected, the facial expression detection unit 405 determines that the facial expression is a smile (step S3023). Thereafter, the process of FIG. 10 is exited. On the other hand, if it is determined in step S3022 that teeth cannot be detected, it is determined that facial expression cannot be detected, and the process of FIG.

ここで、再び図9の説明に戻る。ステップS301において、表情を検出した後、表情検出部405は、検出した表情が複数の人物の笑顔であるか否かを判定する(ステップS302)。ステップS302の判定において、検出した表情が複数の人物の笑顔である場合に、表情検出部405は「なつかしい度」に5点を加える(ステップS303)。そして、図9の処理を抜けて、図12の処理を開始する。即ち、複数の顔があって、それらの顔の表情が笑顔であるような写真は、その当時、楽しいことがあったとして「なつかしい度」を高めに設定する。   Here, it returns to description of FIG. 9 again. In step S301, after detecting a facial expression, the facial expression detection unit 405 determines whether the detected facial expression is a smile of a plurality of persons (step S302). If it is determined in step S302 that the detected facial expression is a smile of a plurality of persons, the facial expression detection unit 405 adds 5 points to the “nostalgic level” (step S303). Then, the process of FIG. 9 is exited and the process of FIG. 12 is started. That is, for a photograph having a plurality of faces and facial expressions of smiling faces, the “nostalgic degree” is set higher because there was a fun at that time.

一方、ステップS302の判定において、検出した表情が複数の人物の笑顔でない場合に、表情検出部405は、検出した表情が複数の顔が向かいあうものであるか否かを判定する(ステップS304)。ステップS304の判定において、検出した表情が複数の顔が向かいあうものである場合に、表情検出部405は「なつかしい度」に4点を加える(ステップS305)。そして、図9の処理を抜けて、図12の処理を開始する。このような場合も、その当時に人物間で何らかの交流があったことを示す画像と考えられるので、その時の感情を含めて当時を思い出すことが可能な画像と考えることが可能である。   On the other hand, if it is determined in step S302 that the detected facial expression is not a smile of a plurality of persons, the facial expression detection unit 405 determines whether or not the detected facial expression is such that a plurality of faces face each other (step S304). If it is determined in step S304 that the detected facial expression is such that a plurality of faces face each other, the facial expression detection unit 405 adds 4 points to the “nostalgic level” (step S305). Then, the process of FIG. 9 is exited and the process of FIG. 12 is started. In such a case as well, it can be considered that the image shows that there was some kind of exchange between the people at that time, so it can be considered as an image that can remember the time including the emotion at that time.

一方、ステップS305の判定において、検出した表情が複数の顔が向かいあうものでない場合に、表情検出部405は、検出した表情がアップの笑顔であるか否かを判定する(ステップS306)。ステップS306の判定において、検出した表情がアップの笑顔である場合に、表情検出部405は「なつかしい度」に3点を加える(ステップS307)。そして、図9の処理を抜けて、図12の処理を開始する。即ち、アップの笑顔は、被写体本人は意識していなくとも、撮影者が非常に思い入れをこめて撮った写真と考えられるので「なつかしい度」に加点するようにする。   On the other hand, if it is determined in step S305 that the detected facial expression does not face a plurality of faces, the facial expression detection unit 405 determines whether the detected facial expression is an up smile (step S306). If it is determined in step S306 that the detected facial expression is a smiling face, the facial expression detection unit 405 adds three points to the “nostalgic level” (step S307). Then, the process of FIG. 9 is exited and the process of FIG. 12 is started. In other words, an up smile is considered to be a photograph taken with great care by the photographer even if the subject is not conscious of it.

一方、ステップS306の判定において、検出した表情がアップの笑顔でない場合に、表情検出部405は、検出した表情がアップの泣き顔であるか否かを判定する(ステップS308)。ステップS308の判定において、検出した表情がアップの泣き顔である場合に、表情検出部405は「なつかしい度」に2点を加える(ステップS309)。そして、図9の処理を抜けて、図12の処理を開始する。即ち、アップの泣き顔は、被写体本人には面白くないかもしれないが、それなりに感情が高ぶった状況なので、何らかの記憶が残っている可能性が高く、これも、思い出を想起させることのできる表情と考えられるので「なつかしい度」に加点するようにする。   On the other hand, if it is determined in step S306 that the detected facial expression is not an up smile, the facial expression detection unit 405 determines whether the detected facial expression is an up crying face (step S308). If it is determined in step S308 that the detected facial expression is an up-crying face, the facial expression detection unit 405 adds two points to the “nostalgic level” (step S309). Then, the process of FIG. 9 is exited and the process of FIG. 12 is started. In other words, the up crying face may not be interesting to the subject himself, but because the emotion is so high, there is a high possibility that some memory remains, and this is also an expression that can recall memories Since it can be considered, add points to the "nostalgic degree".

一方、ステップS308の判定において、検出した表情がアップの泣き顔でない場合に、表情検出部405は、検出した表情の中で他に存在しない人物の顔があるか否かを判定する(ステップS310)。なお、この判定には、家族等の特定人物の顔の画像を表情検出部405に記録しておき、この画像と表情検出部405に入力された顔部の画像とを比較することで判定する。ステップS310の判定において、検出した表情の中で他に存在しない人物の顔がある場合に、表情検出部405は「なつかしい度」に1点を加える(ステップS311)。そして、図12の処理を開始する。   On the other hand, if it is determined in step S308 that the detected facial expression is not an up-crying face, the facial expression detection unit 405 determines whether there is a human face that does not exist in the detected facial expression (step S310). . For this determination, an image of a face of a specific person such as a family is recorded in the facial expression detection unit 405, and this image is compared with the facial image input to the facial expression detection unit 405. . In the determination in step S310, if there is another human face that does not exist in the detected facial expression, the facial expression detection unit 405 adds one point to the “nostalgic degree” (step S311). Then, the process of FIG. 12 is started.

次に、図12を説明する。表情検出部405は、顔検出部404において検出された顔部の画像から、画像内において大きい複数の男女の間に小さい人が存在しているか否かを判定する(ステップS401)。ここで、顔の大きさは例えば顔検出部404で検出された顔の大きさから判定することができる。実際には拡大又は縮小等のズームがなされている場合もあるので、それらによる顔の大きさへの影響も考慮する。また、男女の判定は髪型や大きさの差異から判定することができる。ステップS401の判定において、画像内において大きい複数の男女の間に小さい人が存在している場合に、表情検出部405は「なつかしい度」に10点を加える(ステップS402)。そして、図12の処理を抜けて、図3のステップS7に移行する。即ち、画像内に大きな男女の顔があれば、これらはカップルと考えられる。また、その間に小さい顔の人がいれば、それが両親と子どもの写真と考えることができる。このような写真の懐かしさは格別と考えることができるので「なつかしい度」を高めに設定している。   Next, FIG. 12 will be described. The facial expression detection unit 405 determines whether or not there is a small person among a plurality of large men and women in the image from the face image detected by the face detection unit 404 (step S401). Here, the size of the face can be determined from the size of the face detected by the face detection unit 404, for example. Actually, zooming such as enlargement or reduction may be performed, and the influence on the size of the face due to such zooming is also considered. In addition, the determination of gender can be made from the difference in hairstyle and size. In the determination in step S401, when there is a small person among a plurality of large men and women in the image, the facial expression detection unit 405 adds 10 points to the “nostalgic degree” (step S402). Then, the process of FIG. 12 is exited and the process proceeds to step S7 of FIG. That is, if there are large male and female faces in the image, these are considered to be couples. Also, if there is a person with a small face in the meantime, it can be considered as a picture of parents and children. Such nostalgia for photos can be considered exceptional, so the “nostalgic level” is set high.

一方、ステップS401の判定において、画像内において大きい複数の男女の間に小さい人が存在していない場合に、表情検出部405は、画像内において大きい複数の男女の横に小さい人が存在しているか否かを判定する(ステップS403)。ステップS403の判定において、画像内において大きい複数の男女の横に小さい人が存在している場合に、表情検出部405は「なつかしい度」に8点を加える(ステップS404)。そして、図12の処理を抜けて、図3のステップS7に移行する。このような場合も、男女の間に小さい人が存在している場合に続いて親密な雰囲気を醸し出していると考えられるので、懐かしさを想起する画像として分類できる。   On the other hand, in the determination of step S401, when there is no small person between the large men and women in the image, the facial expression detection unit 405 has a small person beside the large men and women in the image. It is determined whether or not (step S403). If it is determined in step S403 that there is a small person beside a plurality of large men and women in the image, the facial expression detection unit 405 adds 8 points to the “nostalgic degree” (step S404). Then, the process of FIG. 12 is exited and the process proceeds to step S7 of FIG. In such a case, it can be classified as an image reminiscent of nostalgia because it is thought that a close atmosphere is created following the presence of a small person between men and women.

一方、ステップS404の判定において、画像内において大きい複数の男女の横に小さい人が存在していない場合に、表情検出部405は、画像内に大きい女性と小さい人が存在しているか否かを判定する(ステップS405)。ステップS405の判定において、画像内に大きい女性と小さい人が存在している場合に、表情検出部405は「なつかしい度」に6点を加える(ステップS406)。そして、図12の処理を抜けて、図3のステップS7に移行する。また、ステップS405の判定において、画像内に大きい女性と小さい人が存在していない場合に、表情検出部405は、画像内に大きい男性と小さい人が存在しているか否かを判定する(ステップS407)。ステップS407の判定において、画像内に大きい男性と小さい人が存在している場合に、表情検出部405は「なつかしい度」に5点を加える(ステップS408)。そして、図12の処理を抜けて、図3のステップS7に移行する。即ち、大人と子供の写真の場合、両親ではなくとも、例えば母親と子ども、父親と子ども、或いは兄弟、従弟、おじ、おば、曽祖父母との写真と考えることもできる。そこで、ステップS405及びステップS407においては、これらを判定して、「なつかしい度」に加点するようにしている。   On the other hand, in the determination in step S404, when there is no small person next to a plurality of large men and women in the image, the facial expression detection unit 405 determines whether there are a large woman and a small person in the image. Determination is made (step S405). If it is determined in step S405 that there are a large woman and a small person in the image, the facial expression detection unit 405 adds 6 points to the “nostalgic level” (step S406). Then, the process of FIG. 12 is exited and the process proceeds to step S7 of FIG. In the determination in step S405, if there are no large woman and small person in the image, the facial expression detection unit 405 determines whether there are a large man and a small person in the image (step S405). S407). If it is determined in step S407 that there are a large man and a small person in the image, the facial expression detection unit 405 adds 5 points to the “nostalgic degree” (step S408). Then, the process of FIG. 12 is exited and the process proceeds to step S7 of FIG. That is, in the case of a photograph of an adult and a child, it can be considered as a photograph of a mother and a child, a father and a child, or a brother, cousin, uncle, aunt, great-grandparent, etc., not parents. Therefore, in step S405 and step S407, these are determined and added to the “nostalgic degree”.

一方、ステップS407の判定において、画像内に大きい男性と小さい人が存在していない場合に、表情検出部405は、顔部と体部との比率が小さいか否かを判定する(ステップS409)。ステップS409の判定において、顔部と体部との比率が小さい場合に、表情検出部405は「なつかしい度」に1点を加える(ステップS410)。そして、図12の処理を抜けて、図3のステップS7に移行する。顔と体の大きさの比率は成長するにつれ大きくなっていくので、この比率が小さい写真は子どもの写真と考える。そして、このような写真は幼少の思い出を喚起できるものとして「なつかしい度」に加点するようにしている。ただし、顔と体の比率による「なつかしい度」を高くしすぎると、子どもの写真ばかりになってしまうので、大人と一緒の写真よりも得点を少なくしている。   On the other hand, if it is determined in step S407 that neither a large man nor a small person exists in the image, the facial expression detection unit 405 determines whether the ratio between the face part and the body part is small (step S409). . If it is determined in step S409 that the ratio between the face part and the body part is small, the facial expression detection unit 405 adds one point to the “nostalgic degree” (step S410). Then, the process of FIG. 12 is exited and the process proceeds to step S7 of FIG. As the ratio of face to body size grows as it grows, a photo with a small ratio is considered a child's photo. And such a picture is added to "nostalgic degree" as something that can evoke the memories of a child. However, if the “nostalgic level” based on the ratio of face to body is too high, it will result in only pictures of children, so the score is lower than that of photographs with adults.

以上説明したように、本実施形態によれば、大量の画像の中から懐かしさを喚起する画像のみを優先して再生できるカメラやシステムを提供することが可能である。また、インターネット上のサービスを駆使すれば、例えば、家族の年代史のように大量の画像を各地に離れた親族が短時間にかいつまんで鑑賞することが可能となる。   As described above, according to the present embodiment, it is possible to provide a camera or system that can preferentially reproduce only images that arouse nostalgia from a large number of images. In addition, if a service on the Internet is used, for example, relatives who have been distant from various places like a family's chronological history can view it in a short time.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。例えば、上述した実施形態では画像データ毎に1つの「なつかしい度」を設定しているが、複数の条件が重なった場合には、それら複数の条件に対応した「なつかしい度」を加算又は乗算して最終的な「なつかしい度」を求めるようにしても良い。また、背景被写体の種類や顔部の表情に応じた「なつかしい度」の点数は一例であり、適宜決定することができる。この点数をユーザが設定できるようにしても良い。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention. For example, in the above-described embodiment, one “nostalgic degree” is set for each image data, but when a plurality of conditions overlap, the “nostalgic degree” corresponding to the plurality of conditions is added or multiplied. The final “nostalgic degree” may be obtained. Also, the score of “nostalgic degree” corresponding to the type of background subject and facial expression is an example, and can be determined as appropriate. The score may be set by the user.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

本発明の一実施形態に係る画像表示装置を含む撮影装置の一例としてのデジタルカメラの構成を示すブロック図である。1 is a block diagram illustrating a configuration of a digital camera as an example of a photographing apparatus including an image display device according to an embodiment of the present invention. 本発明の一実施形態に係る画像表示装置を含む通信システムの構成を示す図である。It is a figure which shows the structure of the communication system containing the image display apparatus which concerns on one Embodiment of this invention. サーバの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a server. 背景部検出のための顔検出処理の一例の処理手順について示すフローチャートである。It is a flowchart shown about the process sequence of an example of the face detection process for a background part detection. 顔検出処理の概念について示す図である。It is a figure shown about the concept of a face detection process. 懐かしさを想起させる被写体が存在しているか否かの判定処理について示すフローチャートである。It is a flowchart shown about the determination process of whether the subject which recalls nostalgia exists. 文字検出処理の一例を示すフローチャートである。It is a flowchart which shows an example of a character detection process. 文字検出処理の概念について説明するための図である。It is a figure for demonstrating the concept of a character detection process. 顔の表情に応じた「なつかしい度」を求めるためのフローチャートである。It is a flowchart for calculating the “nostalgic degree” according to the facial expression. 表情検出処理の一例を示すフローチャートである。It is a flowchart which shows an example of a facial expression detection process. 表情検出処理の概念について説明するための図である。It is a figure for demonstrating the concept of a facial expression detection process. 人物同士の関係性に応じた「なつかしい度」を求めるためのフローチャートである。It is a flowchart for calculating the “nostalgic degree” according to the relationship between persons.

符号の説明Explanation of symbols

100…デジタルカメラ、101…マイクロプロセッシングユニット(MPU)、102…操作部、103…撮影レンズ、104…オートフォーカス(AF)回路、105…絞り機構、106…絞り制御回路、107…撮像素子、108…アナログフロントエンド(AFE)回路、109…画像処理回路、110…表示制御回路、111…表示パネル、112…形状検出回路、113…距離検出回路、114…顔検出回路、115…圧縮部、116…記録制御回路、117…記録メディア、118…通信部、119…補助光発光回路、300…ネットワーク、400…サーバ、500,600…パーソナルコンピュータ(PC)、700…スキャナ   DESCRIPTION OF SYMBOLS 100 ... Digital camera, 101 ... Micro processing unit (MPU), 102 ... Operation part, 103 ... Shooting lens, 104 ... Auto-focus (AF) circuit, 105 ... Aperture mechanism, 106 ... Aperture control circuit, 107 ... Image sensor, 108 DESCRIPTION OF SYMBOLS ... Analog front end (AFE) circuit, 109 ... Image processing circuit, 110 ... Display control circuit, 111 ... Display panel, 112 ... Shape detection circuit, 113 ... Distance detection circuit, 114 ... Face detection circuit, 115 ... Compression part, 116 ... Recording control circuit, 117 ... Recording medium, 118 ... Communication unit, 119 ... Auxiliary light emitting circuit, 300 ... Network, 400 ... Server, 500,600 ... Personal computer (PC), 700 ... Scanner

Claims (7)

顔画像を含む複数の画像を所定の優先順位で表示させるための画像表示装置において、
上記画像における顔部分を検出する顔画像検出部と、
上記顔部分以外の背景部分の画像を検出する背景画像検出部と、
上記顔部分及び上記背景部分の画像に基づいて上記画像の表示優先度を評価する画像評価部と、
上記表示優先度に応じた優先順位で上記画像を表示させる表示制御部と、
を備えたことを特徴とする画像表示装置。
In an image display device for displaying a plurality of images including face images in a predetermined priority order,
A face image detection unit for detecting a face portion in the image;
A background image detection unit for detecting an image of a background part other than the face part;
An image evaluation unit that evaluates the display priority of the image based on the image of the face portion and the background portion;
A display control unit that displays the images in a priority order according to the display priority;
An image display device comprising:
上記画像評価部は上記背景部分の画像の中から、文字の特徴を抽出して、文字画像があるか否かを判定することで上記表示優先度を評価することを特徴とする請求項1に記載の画像表示装置。   2. The image evaluation unit according to claim 1, wherein the display priority is evaluated by extracting a character feature from the background image and determining whether or not there is a character image. The image display device described. 上記画像は、複数の顔部分の画像を含み、
上記画像評価部は、上記画像内における複数の顔の相対的な位置と大きさとの関係から上記画像の表示優先度を評価することを特徴とする請求項1に記載の画像表示装置。
The image includes a plurality of face part images,
The image display device according to claim 1, wherein the image evaluation unit evaluates display priority of the image from a relationship between a relative position and a size of a plurality of faces in the image.
上記画像評価部は上記顔部分の画像から顔の表情を検出する表情検出部を含み、
上記検出された顔の表情と上記背景部分の画像に基づいて上記表示優先度を評価することを特徴とする請求項1に記載の画像表示装置。
The image evaluation unit includes a facial expression detection unit that detects facial expressions from the image of the face part,
The image display device according to claim 1, wherein the display priority is evaluated based on the detected facial expression and the background image.
上記画像評価部は、上記顔部分及び上記背景部分の画像をそれぞれ点数化し、該点数を評価することで上記表示優先度を評価し、
上記表示制御部は、上記点数が高い画像を他に優先して表示させることを特徴とする請求項1に記載の画像表示装置。
The image evaluation unit scores the images of the face part and the background part, and evaluates the display priority by evaluating the score,
The image display apparatus according to claim 1, wherein the display control unit preferentially displays the image having the high score.
顔画像を含む複数の画像を所定の優先順位で表示させるための画像表示方法において、
上記画像における顔部分を検出し、
上記顔部分以外の背景部分の画像を検出し、
上記顔部分及び上記背景部分の画像に基づいて上記画像の表示優先度を評価し、
上記表示優先度に応じた優先順位で上記画像を表示させる、
ことを特徴とする画像表示方法。
In an image display method for displaying a plurality of images including face images in a predetermined priority order,
Detect the face part in the above image,
Detect images of the background part other than the face part,
Evaluating the display priority of the image based on the image of the face portion and the background portion,
Displaying the images in a priority order according to the display priority;
An image display method characterized by the above.
顔画像を含む複数の画像を所定の優先順位で表示させるための画像表示プログラムにおいて、
上記画像における顔部分を検出するステップと、
上記顔部分以外の背景部分の画像を検出するステップと、
上記顔部分及び上記背景部分の画像に基づいて上記画像の表示優先度を評価するステップと、
上記表示優先度に応じた優先順位で上記画像を表示させるステップと、
をコンピュータに実行させるための画像表示プログラム。
In an image display program for displaying a plurality of images including face images in a predetermined priority order,
Detecting a face portion in the image;
Detecting an image of a background portion other than the face portion;
Evaluating display priority of the image based on the image of the face portion and the background portion;
Displaying the images in a priority order according to the display priority;
Display program for causing a computer to execute.
JP2007063771A 2007-03-13 2007-03-13 Image display device, image display method, and program Expired - Fee Related JP4891123B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007063771A JP4891123B2 (en) 2007-03-13 2007-03-13 Image display device, image display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007063771A JP4891123B2 (en) 2007-03-13 2007-03-13 Image display device, image display method, and program

Publications (2)

Publication Number Publication Date
JP2008225886A true JP2008225886A (en) 2008-09-25
JP4891123B2 JP4891123B2 (en) 2012-03-07

Family

ID=39844429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007063771A Expired - Fee Related JP4891123B2 (en) 2007-03-13 2007-03-13 Image display device, image display method, and program

Country Status (1)

Country Link
JP (1) JP4891123B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010177812A (en) * 2009-01-27 2010-08-12 Nikon Corp Digital camera and image processing apparatus
JP2011239179A (en) * 2010-05-11 2011-11-24 Shimauma Print System Inc Image output device and image output method
WO2015012495A1 (en) * 2013-07-23 2015-01-29 Samsung Electronics Co., Ltd. User terminal device and the control method thereof
JP2017224182A (en) * 2016-06-16 2017-12-21 キヤノンマーケティングジャパン株式会社 Information processing apparatus, information processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006252025A (en) * 2005-03-09 2006-09-21 Konica Minolta Holdings Inc Image management device, image management method and image management program
JP2007026133A (en) * 2005-07-19 2007-02-01 Sony Corp Information providing device and method thereof
JP2007041964A (en) * 2005-08-04 2007-02-15 Matsushita Electric Ind Co Ltd Image processor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006252025A (en) * 2005-03-09 2006-09-21 Konica Minolta Holdings Inc Image management device, image management method and image management program
JP2007026133A (en) * 2005-07-19 2007-02-01 Sony Corp Information providing device and method thereof
JP2007041964A (en) * 2005-08-04 2007-02-15 Matsushita Electric Ind Co Ltd Image processor

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010177812A (en) * 2009-01-27 2010-08-12 Nikon Corp Digital camera and image processing apparatus
JP2011239179A (en) * 2010-05-11 2011-11-24 Shimauma Print System Inc Image output device and image output method
WO2015012495A1 (en) * 2013-07-23 2015-01-29 Samsung Electronics Co., Ltd. User terminal device and the control method thereof
KR20150011742A (en) * 2013-07-23 2015-02-02 삼성전자주식회사 User terminal device and the control method thereof
US9749494B2 (en) 2013-07-23 2017-08-29 Samsung Electronics Co., Ltd. User terminal device for displaying an object image in which a feature part changes based on image metadata and the control method thereof
CN108632496A (en) * 2013-07-23 2018-10-09 三星电子株式会社 User terminal apparatus and its control method
KR102127351B1 (en) * 2013-07-23 2020-06-26 삼성전자주식회사 User terminal device and the control method thereof
JP2017224182A (en) * 2016-06-16 2017-12-21 キヤノンマーケティングジャパン株式会社 Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP4891123B2 (en) 2012-03-07

Similar Documents

Publication Publication Date Title
US8212911B2 (en) Imaging apparatus, imaging system, and imaging method displaying recommendation information
CN104683723B (en) Display device, camera and display methods
JP4640456B2 (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
CN101262561B (en) Imaging apparatus and control method thereof
JP5402018B2 (en) Display device and imaging device
JP2006109119A (en) Moving image recorder and moving image reproducing apparatus
JP2009141516A (en) Image display device, camera, image display method, program, image display system
JP5423052B2 (en) Image processing apparatus, imaging apparatus, and program
JP2001127990A (en) Information communication system
JP4891123B2 (en) Image display device, image display method, and program
US8355050B2 (en) Image replay system, digital camera, and image replay device
JP2007266902A (en) Camera
JP5231178B2 (en) camera
JP5530548B2 (en) Facial expression database registration method and facial expression database registration apparatus
JP5295510B2 (en) Image display device, image display method, and program
JP2012138763A (en) Image processing device, electronic camera, and image processing program
JP4865631B2 (en) Imaging device
JP2010171849A (en) Image reproducing apparatus and electronic camera
JP6166070B2 (en) Playback apparatus and playback method
JP5173666B2 (en) camera
JP6508635B2 (en) Reproducing apparatus, reproducing method, reproducing program
JP5447134B2 (en) Image processing apparatus, reply image generation system, and program
US20230216979A1 (en) Information processing device, information processing method, and program
JP2010263265A (en) Photography display device, and photography display method
JP2009212867A (en) Shot image processing apparatus, shooting control program, and phiotographing control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111206

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111215

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4891123

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141222

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees