[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5457092B2 - Digital camera and composite image display method of digital camera - Google Patents

Digital camera and composite image display method of digital camera Download PDF

Info

Publication number
JP5457092B2
JP5457092B2 JP2009158881A JP2009158881A JP5457092B2 JP 5457092 B2 JP5457092 B2 JP 5457092B2 JP 2009158881 A JP2009158881 A JP 2009158881A JP 2009158881 A JP2009158881 A JP 2009158881A JP 5457092 B2 JP5457092 B2 JP 5457092B2
Authority
JP
Japan
Prior art keywords
image
moving image
unit
face
external device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009158881A
Other languages
Japanese (ja)
Other versions
JP2011015279A5 (en
JP2011015279A (en
Inventor
勝久 川口
晴之 石原
浩一 新谷
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2009158881A priority Critical patent/JP5457092B2/en
Priority to CN201610186833.0A priority patent/CN105721752B/en
Priority to CN201010222803.3A priority patent/CN101945216B/en
Publication of JP2011015279A publication Critical patent/JP2011015279A/en
Publication of JP2011015279A5 publication Critical patent/JP2011015279A5/en
Application granted granted Critical
Publication of JP5457092B2 publication Critical patent/JP5457092B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Studio Circuits (AREA)
  • Image Processing (AREA)

Description

本発明は、外部機器を用いて動画像を再生する機能を有するデジタルカメラ及びデジタルカメラの合成画像表示方法に関する。 The present invention relates to a digital camera having a function of reproducing a moving image using an external device and a composite image display method of the digital camera .

近年、デジタルカメラや携帯電話機等の各種の携帯機器において動画像撮影が可能となっている。しかしながら、決まった動きをしない被写体の動きを的確に捉えた動画像を撮影するのは、一般のユーザには困難である。このため、一般のユーザでは単調な動画像しか撮影することができなかった。これに対し、専門家が作るテレビ番組等では複数のカメラで頻繁に構図を切り替えながら撮影を行うことができるので単調でない動画像を撮影することができる。しかしながら、一般のユーザがこうした撮影方法を取るのは大変困難である。   In recent years, it has become possible to shoot moving images in various portable devices such as digital cameras and mobile phones. However, it is difficult for a general user to shoot a moving image that accurately captures the movement of a subject that does not perform a fixed movement. For this reason, ordinary users can only capture monotonous moving images. On the other hand, in a television program or the like created by an expert, it is possible to shoot while frequently changing the composition with a plurality of cameras, so that it is possible to shoot a non-monotonous moving image. However, it is very difficult for a general user to take such a photographing method.

撮影時には単調な動画像であっても適切な編集作業を経たものであれば鑑賞に耐えるものとなる。近年では、テレビ画面上に再生した動画像に対して動画像編集を行えるようにするための技術も各種提案されている(例えば、特許文献1参照)。   Even if it is a monotonous moving image at the time of shooting, it can withstand viewing if it has undergone appropriate editing work. In recent years, various techniques for enabling moving image editing on a moving image reproduced on a television screen have been proposed (see, for example, Patent Document 1).

特許第2822187号公報Japanese Patent No. 2822187

特許文献1等の従来の動画像編集技術においては、編集後に得られる動画像を鑑賞する鑑賞者のことについては何ら考慮されておらず、編集後に得られる動画像が鑑賞者にとって必ずしも興味のある動画像となるとは限らない。このため、動画像の鑑賞者が退屈してしまったりするおそれがある。   In the conventional moving image editing technology such as Patent Document 1, no consideration is given to the viewer who appreciates the moving image obtained after editing, and the moving image obtained after editing is not necessarily interested in the viewer. It is not always a moving image. For this reason, the viewer of the moving image may be bored.

本発明は、上記の事情に鑑みてなされたもので、動画像を鑑賞する鑑賞者が興味を持ち易い動画像を得ることができるデジタルカメラ及びデジタルカメラの合成画像表示方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and it is an object of the present invention to provide a digital camera and a composite image display method of the digital camera that can obtain a moving image that is easily interested by a viewer who appreciates the moving image. And

上記の目的を達成するために、本発明の第1の態様のデジタルカメラは、動画像を取得する撮像部と、上記撮像部で得られた動画像中の顔画像を検出する顔検出部と、上記顔検出部によって検出された顔画像をトリミングするトリミング部と、上記撮像部で取得された動画像を記録する記録部と、表示部を有する外部装置へ上記記録部に記録された動画像を送信するための通信インタフェース部と、上記外部装置の表示部において再生中の動画像に上記トリミングされた顔画像を合成表示させるために、当該外部装置へ送信された動画像に当該トリミングされた顔画像を合成する合成部とを具備し、上記撮像部は上記外部装置から顔画像の合成命令を示す信号を受信したタイミングで起動され、上記顔検出部によって検出された顔画像の表情の変化のタイミングで上記外部装置へ送信された動画像に上記トリミングされた顔画像を合成表示させることを特徴とする。 In order to achieve the above object, a digital camera according to a first aspect of the present invention includes an imaging unit that acquires a moving image, and a face detection unit that detects a face image in the moving image obtained by the imaging unit. A trimming unit that trims a face image detected by the face detection unit, a recording unit that records a moving image acquired by the imaging unit, and a moving image recorded in the recording unit to an external device having a display unit In order to synthesize and display the trimmed face image on the moving image being reproduced on the display unit of the external device, the trimmed moving image transmitted to the external device ; and a combining unit for combining a face image, the imaging unit is started at the timing of receiving the signal indicating the composition instructions of the face image from the external apparatus, the facial expression of a face image detected by the face detection unit The trimmed facial image moving image transmitted to the external apparatus at the timing of change, characterized in that for composite display.

また、上記の目的を達成するために、本発明の第2の態様のデジタルカメラの合成画像表示方法は、表示部を有する外部装置へ、第1の動画像を送信し、上記外部装置から顔画像の合成命令を示す信号を受信したタイミングで撮像部を起動して、上記外部装置へ送信した上記第1の動画像とは異なる第2の動画像を取得し、上記取得した第2の動画像中の顔画像を検出し、上記検出された顔画像をトリミングし、上記外部装置の表示部において再生中の第1の動画像に上記トリミングした顔画像を合成表示させるために、上記検出された顔画像の表情の変化のタイミングで当該外部装置へ送信した第1の動画像に当該トリミングした顔画像を合成し、上記外部装置へ送信した第1の動画像に上記トリミングした顔画像を合成表示させることを特徴とする。 In order to achieve the above object, a composite image display method for a digital camera according to a second aspect of the present invention transmits a first moving image to an external device having a display unit, and the face from the external device. The imaging unit is activated at a timing when a signal indicating an image compositing command is received, a second moving image different from the first moving image transmitted to the external device is acquired, and the acquired second moving image The detected face image is detected, the detected face image is trimmed, and the trimmed face image is combined and displayed on the first moving image being reproduced on the display unit of the external device. The trimmed face image is synthesized with the first moving image transmitted to the external device at the timing of the change in facial expression of the face image, and the trimmed face image is synthesized with the first moving image transmitted to the external device. To display And butterflies.

また、上記の目的を達成するために、本発明の第3の態様のデジタルカメラは、動画像を取得する撮像部と、上記撮像部で得られた動画像中の顔画像を検出する顔検出部と、上記顔検出部によって検出された顔画像をトリミングするトリミング部と、上記撮像部で取得された動画像を記録する記録部と、表示部を有する外部装置へ上記記録部に記録された動画像を送信するための通信インタフェース部と、上記外部装置の表示部において再生中の動画像に上記トリミングされた顔画像を合成表示させるために、当該外部装置へ送信された動画像に当該トリミングされた顔画像を合成する合成部と、集音部とを具備し、上記撮像部及び上記集音部は上記外部装置から顔画像の合成命令を示す信号を受信したタイミングで起動され、上記外部装置へ送信された動画像に上記トリミングされた顔画像を合成表示させるタイミングは、上記集音部によって検出された音の変化に基づくタイミングであることを特徴とする。
また、上記の目的を達成するために、本発明の第4の態様のデジタルカメラの合成画像表示方法は、表示部を有する外部装置へ第1の動画像を送信し、外部装置から顔画像の合成命令を示す信号を受信したタイミングで撮像部を起動して、上記外部装置へ送信した上記第1の動画像とは異なる第2の動画像を取得し、上記取得した第2の動画像中の顔画像を検出し、上記検出された顔画像をトリミングし、上記第2の動画像の取得と同時に周囲の音を集音し、上記外部装置の表示部において再生中の第1の動画像に上記トリミングした顔画像を合成表示させるために、上記検出された音の大小の変化のタイミングで当該外部装置へ送信した第1の動画像に当該トリミングした顔画像を合成し、上記外部装置へ送信した第1の動画像に上記トリミングした顔画像を合成表示させることを特徴とする。
In order to achieve the above object, a digital camera according to a third aspect of the present invention includes an imaging unit that acquires a moving image, and a face detection that detects a face image in the moving image obtained by the imaging unit. , A trimming unit for trimming the face image detected by the face detection unit, a recording unit for recording a moving image acquired by the imaging unit, and an external device having a display unit recorded in the recording unit A communication interface unit for transmitting a moving image and the trimmed face image transmitted to the external device in order to synthesize and display the trimmed face image on the moving image being reproduced on the display unit of the external device. And a sound collection unit. The image pickup unit and the sound collection unit are activated when a signal indicating a face image synthesis command is received from the external device, and apparatus Timing of the cropped face image to the moving image transmitted combined display is characterized by a timing based on the change in the detected sound by the sound collection unit.
In order to achieve the above object, a composite image display method of a digital camera according to a fourth aspect of the present invention transmits a first moving image to an external device having a display unit, and the face image of the external device is transmitted from the external device. The imaging unit is activated at a timing at which a signal indicating a compositing command is received, a second moving image that is different from the first moving image transmitted to the external device is acquired, and the acquired second moving image is in the acquired second moving image The detected face image, trimming the detected face image, collecting the surrounding sound simultaneously with the acquisition of the second moving image, and reproducing the first moving image on the display unit of the external device In order to synthesize and display the trimmed face image, the trimmed face image is synthesized with the first moving image transmitted to the external device at the timing of the detected change in magnitude of the sound, and sent to the external device. The above trie is added to the transmitted first moving image. Characterized in that for the synthesis display the ring face image.

本発明によれば、動画像を鑑賞する鑑賞者が興味を持ち易い動画像を得ることができるデジタルカメラ及びデジタルカメラの合成画像表示方法を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the digital camera which can obtain the moving image in which the viewer who appreciates a moving image is easy to be interested, and the composite image display method of a digital camera can be provided.

本発明の一実施形態に係るデジタルカメラを有する動画像再生システムの構成を示す図である。It is a figure which shows the structure of the moving image reproduction system which has a digital camera which concerns on one Embodiment of this invention. 動画像再生システムの使用時の様子を示す図である。It is a figure which shows the mode at the time of use of a moving image reproduction system. デジタルカメラのメインの動作を示すフローチャートの第1図である。It is FIG. 1 of the flowchart which shows the main operation | movement of a digital camera. デジタルカメラの再生モード時における表示部の表示例を示す図である。It is a figure which shows the example of a display of the display part at the time of the reproduction mode of a digital camera. デジタルカメラのメインの動作を示すフローチャートの第2図である。It is FIG. 2 of the flowchart which shows the main operation | movement of a digital camera. 顔画像の合成の例について示す図である。It is a figure shown about the example of a synthesis | combination of a face image. 位置変更処理について示すフローチャートである。It is a flowchart shown about a position change process. デジタルカメラのメインの動作を示すフローチャートの第3図である。It is FIG. 3 of the flowchart which shows the main operation | movement of a digital camera. リモコン操作表示画像の例について示す図である。It is a figure shown about the example of a remote control operation display image. 外部再生終了処理について示すフローチャートである。It is a flowchart shown about an external reproduction end process. 確認画面の表示例について示す図である。It is a figure shown about the example of a display of a confirmation screen.

以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係るデジタルカメラを有する動画像再生システムの構成を示す図である。図1に示すように、本動画像再生システムは、デジタルカメラ100と、テレビジョン受像機200と、が通信ケーブル300を介して通信自在に接続されて構成されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a configuration of a moving image reproduction system having a digital camera according to an embodiment of the present invention. As shown in FIG. 1, the moving image playback system is configured by a digital camera 100 and a television receiver 200 that are communicably connected via a communication cable 300.

本実施形態に係るデジタルカメラ100は、撮像部101と、顔検出部102と、表示部103と、集音部104と、記録部105と、時計部106と、制御部107と、操作部108と、通信インタフェース部109とを有している。なお、本実施形態におけるデジタルカメラ100は動作モードとして、動画像撮影をするための動画像撮影モードと、動画像の再生をするための動画像再生モードと、TV200とデータ通信を行うための通信モードとを少なくとも有している。   The digital camera 100 according to the present embodiment includes an imaging unit 101, a face detection unit 102, a display unit 103, a sound collection unit 104, a recording unit 105, a clock unit 106, a control unit 107, and an operation unit 108. And a communication interface unit 109. Note that the digital camera 100 according to the present embodiment has, as operation modes, a moving image shooting mode for shooting a moving image, a moving image playback mode for playing back a moving image, and communication for performing data communication with the TV 200. And at least a mode.

撮像部101は、図示しない被写体の像を集光するためのレンズや、レンズによって集光された被写体の像を電気信号に変換する撮像素子等を有している。この撮像部101は、被写体に対して撮像を実行して被写体の静止画像を取得する。また、撮像部101による撮像を連続的に実行することで動画像も取得可能である。   The imaging unit 101 includes a lens for condensing a subject image (not shown), an imaging element for converting the subject image condensed by the lens into an electrical signal, and the like. The imaging unit 101 captures a subject and acquires a still image of the subject. A moving image can also be acquired by continuously performing imaging by the imaging unit 101.

顔検出部102は、撮像部101による撮像によって得られる画像中の被写体の顔を検出する。顔検出部102によって検出された顔の情報は、例えば、撮像部101を構成するレンズのフォーカスを顔位置に合わせるような制御や、画像中の顔の露出を適正にする制御に用いることができる。なお、顔検出部102における顔検出は、例えば、画像中の顔の特徴量(目や鼻の形状や位置関係等)を検出することによって行う。また、本実施形態における顔検出部102は顔の表情(特に笑顔)も検出可能になされている。   The face detection unit 102 detects the face of the subject in the image obtained by imaging by the imaging unit 101. The face information detected by the face detection unit 102 can be used for, for example, control for adjusting the focus of the lens constituting the imaging unit 101 to the face position, or control for appropriately exposing the face in the image. . Note that the face detection in the face detection unit 102 is performed, for example, by detecting the feature amount of the face in the image (the shape and positional relationship of eyes and nose). In addition, the face detection unit 102 according to the present embodiment can detect facial expressions (especially smiles).

表示部103は、撮像部101で取得された静止画像又は動画像を表示する。この表示部103は、例えばデジタルカメラ100の背面に配された液晶ディスプレイである。   The display unit 103 displays a still image or a moving image acquired by the imaging unit 101. The display unit 103 is a liquid crystal display disposed on the back surface of the digital camera 100, for example.

集音部104は、動画像撮影時におけるデジタルカメラ100の周囲の音声を取得し、取得した音声信号を電気信号に変換する。   The sound collection unit 104 acquires sound around the digital camera 100 at the time of moving image shooting, and converts the acquired sound signal into an electric signal.

記録部105は、撮像部101で取得された静止画像又は動画像が記録される。この記録部105は、例えば、デジタルカメラ100に対して着脱自在になされた半導体メモリカードである。時計部106は、撮像部101において静止画像撮影又は動画像撮影がなされた日時を計時する。この時計部106で計時された撮影日時は撮像部101で取得された静止画像又は動画像に関連付けられて記録部105に記録される。   The recording unit 105 records a still image or a moving image acquired by the imaging unit 101. The recording unit 105 is, for example, a semiconductor memory card that is detachable from the digital camera 100. The clock unit 106 measures the date and time when still image shooting or moving image shooting was performed in the imaging unit 101. The shooting date and time counted by the clock unit 106 is recorded in the recording unit 105 in association with the still image or the moving image acquired by the imaging unit 101.

制御部107は、撮像部101の撮像動作の制御、表示部103の表示動作の制御、集音部104の動作制御等を含む、デジタルカメラ100内部の各ブロックの制御を行う。この他、制御部107は、撮像部101で得られた画像に対する画像処理、集音部104で得られた音声に対する音声処理等の各種データ処理も行う。ここで、本実施形態における制御部107は、合成部としての機能も有している。即ち、制御部107は記録部105に記録された動画像に、この動画像を鑑賞している鑑賞者の画像を合成するとともに、鑑賞者の音声を記録部105に記録された動画像に関連付ける処理も行う。さらに、制御部107はトリミング部としての機能も有しており、撮像部101で得られた画像における顔部の画像(顔画像)をトリミングして抽出することも行う。   The control unit 107 controls each block in the digital camera 100 including control of the imaging operation of the imaging unit 101, control of the display operation of the display unit 103, operation control of the sound collection unit 104, and the like. In addition, the control unit 107 also performs various data processing such as image processing on the image obtained by the imaging unit 101 and sound processing on the sound obtained by the sound collection unit 104. Here, the control unit 107 in this embodiment also has a function as a synthesis unit. That is, the control unit 107 combines the image of the viewer who is viewing the moving image with the moving image recorded in the recording unit 105 and associates the audio of the viewer with the moving image recorded in the recording unit 105. Processing is also performed. Further, the control unit 107 also has a function as a trimming unit, and also trims and extracts a face image (face image) in the image obtained by the imaging unit 101.

操作部108は、ユーザがデジタルカメラ100の各種の操作を行うための操作部である。操作部108の操作を識別して制御部107は、操作部108の操作に対応する処理を実行する。なお、操作部108としては、例えばデジタルカメラ100の動作モードを設定するための操作部、デジタルカメラ100による撮影の実行・終了を指示するための操作部、各種の選択動作を行うための操作部等が含まれる。   The operation unit 108 is an operation unit for the user to perform various operations on the digital camera 100. After identifying the operation of the operation unit 108, the control unit 107 executes processing corresponding to the operation of the operation unit 108. As the operation unit 108, for example, an operation unit for setting the operation mode of the digital camera 100, an operation unit for instructing execution / termination of shooting by the digital camera 100, and an operation unit for performing various selection operations Etc. are included.

通信インタフェース部109は、デジタルカメラ100がテレビジョン受像機(以下、TVと略記する)200との間でデータ通信を行うためのインタフェースである。本実施形態では、通信インタフェース部109としてHDMI(High Definition Multimedia Interface)(登録商標)を用いる。しかしながら、通信インタフェース部109は、動画像の転送に適したインタフェースであれば特に限定されるものではない。また、図1では有線インタフェースを示しているが、赤外線通信や電波通信等に対応した無線インタフェースを用いるようにしても良い。   The communication interface unit 109 is an interface for the digital camera 100 to perform data communication with a television receiver (hereinafter abbreviated as TV) 200. In the present embodiment, HDMI (High Definition Multimedia Interface) (registered trademark) is used as the communication interface unit 109. However, the communication interface unit 109 is not particularly limited as long as it is an interface suitable for moving image transfer. In addition, although a wired interface is shown in FIG. 1, a wireless interface corresponding to infrared communication, radio wave communication, or the like may be used.

本実施形態の外部機器の一例としてのTV200は、放送受信部201と、表示部202と、ネットワーク通信部203と、情報重畳部204と、制御部205と、リモコン信号受信部206と、通信インタフェース部207とを有している。   The TV 200 as an example of the external device of the present embodiment includes a broadcast receiving unit 201, a display unit 202, a network communication unit 203, an information superimposing unit 204, a control unit 205, a remote control signal receiving unit 206, and a communication interface. Part 207.

放送受信部201は、図示しないテレビ局等からテレビジョン放送を受信するためのアンテナ等を含む。表示部202は、放送受信部201を介して受信されたテレビジョン放送に基づく動画像を表示する。また、本実施形態における表示部202は、デジタルカメラ100からデジタルデータとして転送されてくる動画像を表示可能にもなされている。   The broadcast receiving unit 201 includes an antenna or the like for receiving a television broadcast from a television station (not shown) or the like. The display unit 202 displays a moving image based on the television broadcast received via the broadcast receiving unit 201. The display unit 202 in the present embodiment is also capable of displaying a moving image transferred as digital data from the digital camera 100.

ネットワーク通信部203は、TV200が図示しないサーバ等とインターネットを介して通信するためのインタフェースである。情報重畳部204は、ネットワーク通信部203を介して図示しないサーバ等から得られる各種データを表示部202に表示される動画像に重畳させる。   The network communication unit 203 is an interface for the TV 200 to communicate with a server or the like (not shown) via the Internet. The information superimposing unit 204 superimposes various data obtained from a server or the like (not shown) via the network communication unit 203 on the moving image displayed on the display unit 202.

制御部205は、表示部202の表示動作の制御や情報重畳部204の動作制御等を含む、TV200内部の各ブロックの制御を行う。リモコン信号受信部206は、TV200のリモートコントローラ(リモコン)400からのリモコン信号を受信する。リモコン信号受信部206で受信されたリモコン信号を識別して制御部205は、リモコン400の操作に対応した処理を実行する。   The control unit 205 controls each block in the TV 200 including control of the display operation of the display unit 202, operation control of the information superimposing unit 204, and the like. The remote control signal receiving unit 206 receives a remote control signal from the remote controller (remote controller) 400 of the TV 200. Recognizing the remote control signal received by the remote control signal receiving unit 206, the control unit 205 executes processing corresponding to the operation of the remote control 400.

通信インタフェース部207は、TV200がデジタルカメラ100との間でデータ通信を行うためのインタフェースである。この通信インタフェース部207も例えばHDMIである。   The communication interface unit 207 is an interface for the TV 200 to perform data communication with the digital camera 100. The communication interface unit 207 is also HDMI, for example.

図2は、本実施形態に係る動画像再生システムの使用時の様子を示す図である。図2に示すように、デジタルカメラ100は通信ケーブル300を介してTV200に接続されている。このような状態において、鑑賞者500はTV200の表示部202に表示された動画像202aを見ることができる。また、鑑賞者500がリモコン400を操作することで、TV200を遠隔操作することが可能である。   FIG. 2 is a diagram showing a state in use of the moving image reproduction system according to the present embodiment. As shown in FIG. 2, the digital camera 100 is connected to the TV 200 via a communication cable 300. In such a state, the viewer 500 can view the moving image 202a displayed on the display unit 202 of the TV 200. In addition, the viewer 500 can remotely control the TV 200 by operating the remote controller 400.

ここで、本実施形態においては、デジタルカメラ100から通信ケーブル300を介して転送される動画像202aの再生中にデジタルカメラ100の撮像部101によって鑑賞者500の顔の画像を取得し、鑑賞者500の顔の画像202bをデジタルカメラ100から転送される動画像に合成してTV200の表示部202に表示可能である。このような表示を行うことにより、例えば図2のようにして2人の鑑賞者500が動画像202aを鑑賞している際にお互いの反応を表示部202上で確認でき、これによって動画像202aの鑑賞の場を盛り上げることが可能である。このように、実際には再生される動画像が前もって編集されていなくても、その動画像に単にその動画像を見るだけでない楽しみが付与されることとなる。つまり、本実施形態においては、TV200の表示部202上にあたかも編集された画像を見るのと同様の効果を持った画像が表示されることとなる。   Here, in the present embodiment, an image of the face of the viewer 500 is acquired by the imaging unit 101 of the digital camera 100 during playback of the moving image 202a transferred from the digital camera 100 via the communication cable 300, and the viewer 500 face images 202 b can be combined with a moving image transferred from the digital camera 100 and displayed on the display unit 202 of the TV 200. By performing such display, for example, as shown in FIG. 2, when two viewers 500 are watching the moving image 202a, the mutual reaction can be confirmed on the display unit 202, and thereby the moving image 202a. It is possible to enliven In this way, even if the moving image to be reproduced is not edited in advance, the moving image is given pleasure not only to view the moving image. That is, in the present embodiment, an image having the same effect as that of viewing the edited image is displayed on the display unit 202 of the TV 200.

以下、図2で示したような動画像再生システムの動作の詳細について図3〜図11を参照して説明する。なお、本実施形態におけるTV200はデジタルカメラ100から送信される動画像を表示する動作とリモコン400が操作された場合にリモコン400の操作内容を示す操作信号を外部信号としてデジタルカメラ100に送信する動作とを行うだけである。したがって、以後の説明においてはデジタルカメラ100側の動作について特に説明する。また、本実施形態におけるデジタルカメラ100は静止画像の撮影及び再生も可能であるが、以後の説明においては動画撮影及び動画再生に係る動作について特に説明する。   The details of the operation of the moving image reproduction system as shown in FIG. 2 will be described below with reference to FIGS. Note that the TV 200 in the present embodiment displays the moving image transmitted from the digital camera 100 and the operation of transmitting an operation signal indicating the operation content of the remote control 400 to the digital camera 100 as an external signal when the remote control 400 is operated. Just do. Therefore, in the following description, the operation on the digital camera 100 side will be particularly described. In addition, the digital camera 100 according to the present embodiment can capture and reproduce a still image. In the following description, operations relating to moving image shooting and moving image reproduction will be particularly described.

図3において、デジタルカメラ100の制御部107は、まず、デジタルカメラ100の動作モードが動画像撮影モードであるか否かを判定する(ステップS101)。ステップS101の判定において、デジタルカメラ100の動作モードが動画像撮影モードである場合に、制御部107は撮像部101を連続動作させて画像の取り込みを行い(ステップS102)、撮像部101の連続動作によって得られる動画像をリアルタイムで表示部103に表示させる(ステップS103)。この表示部103に表示される動画像を見ながら撮影者は撮影開始のタイミングや構図等を決定することが可能である。表示部103への動画像の表示後、制御部107は、撮影者による操作部108の操作によって動画像の撮影開始の指示がなされたか否かを判定する(ステップS104)。ステップS104の判定において、動画像の撮影開始の指示がなされていない場合に、制御部107はステップS101の動作モードの判定を再び行う。また、ステップS104の判定において、動画像の撮影開始の指示がなされた場合に、制御部107は、撮像部101を介して得られる動画像と集音部104を介して得られる音声との記録部105への記録を開始させる(ステップS105)。ここで、動画像の記録方式として本実施形態では、例えばMotion JPEG方式を用いる。Motion JPEG方式を用いるのは、動画像のフレーム単位での編集(詳細は後述する顔画像の合成)が容易であるためである。もちろん、合成されるタイミングの限定等、所定の条件さえ許す仕様であれば、H.264等のフレーム間圧縮プロセスを持つものでもよい。また、撮像部101を介した動画像の記録と集音部104を介した音声の記録とは互いに同期されるように同時に行われるものとする。   In FIG. 3, the control unit 107 of the digital camera 100 first determines whether or not the operation mode of the digital camera 100 is the moving image shooting mode (step S101). If it is determined in step S101 that the operation mode of the digital camera 100 is the moving image shooting mode, the control unit 107 continuously operates the imaging unit 101 to capture images (step S102), and the continuous operation of the imaging unit 101 is performed. Is displayed on the display unit 103 in real time (step S103). The photographer can determine the start timing, composition, and the like while viewing the moving image displayed on the display unit 103. After the moving image is displayed on the display unit 103, the control unit 107 determines whether an instruction to start capturing a moving image is given by the operation of the operation unit 108 by the photographer (step S104). If it is determined in step S104 that an instruction to start capturing a moving image has not been given, the control unit 107 determines the operation mode in step S101 again. In the determination in step S104, when an instruction to start capturing a moving image is given, the control unit 107 records the moving image obtained via the imaging unit 101 and the sound obtained via the sound collecting unit 104. Recording on the unit 105 is started (step S105). In this embodiment, for example, the Motion JPEG method is used as a moving image recording method. The Motion JPEG method is used because it is easy to edit a moving image in units of frames (details will be described later on the synthesis of a face image). Of course, if the specification allows even predetermined conditions such as the timing of synthesis, etc. It may have an inter-frame compression process such as H.264. In addition, it is assumed that recording of a moving image via the imaging unit 101 and recording of sound via the sound collection unit 104 are performed simultaneously so as to be synchronized with each other.

動画像の撮影開始後、制御部107は、撮影者による操作部108の操作によって動画像の撮影終了の指示がなされたか否かを判定する(ステップS106)。ステップS106の判定において、動画像の撮影終了の指示がなされていない場合には、処理がステップS105に戻り、制御部107は動画像の記録を継続する。また、ステップS106の判定において、動画像の撮影終了の指示がなされた場合に、制御部107は動画像の記録を終了する。この際、制御部107は、記録部105に記録された動画像に時計部106で記録された撮影日時が関連付けして記録する。動画像の記録終了後、制御部107はステップS101以後の処理を行う。   After the start of moving image shooting, the control unit 107 determines whether an instruction to end moving image shooting has been given by the operation of the operation unit 108 by the photographer (step S106). If it is determined in step S106 that an instruction to end moving image shooting has not been given, the process returns to step S105, and the control unit 107 continues to record the moving image. Also, in the determination in step S106, when an instruction to end the shooting of the moving image is given, the control unit 107 ends the recording of the moving image. At this time, the control unit 107 records the moving image recorded in the recording unit 105 in association with the shooting date and time recorded by the clock unit 106. After the recording of the moving image is completed, the control unit 107 performs the processing after step S101.

また、ステップS101の判定において、デジタルカメラ100の動作モードが動画像撮影モードでない場合に、制御部107は、デジタルカメラ100の動作モードが動画像再生モードであるか否かを判定する(ステップS107)。ステップS107の判定において、デジタルカメラ100の動作モードが動画像再生モードである場合に、制御部107は、記録部105に記録されている動画像(音声も関連付けられている)を示すサムネイル画像を図4(a)に示すようにして表示部103に表示させる(ステップS108)。なお、サムネイル画像として表示させる画像は各動画像の代表画像とする。この代表画像は、例えば動画像中の最初のフレームの画像や後述するインデックスが付されたフレームの画像である。   In step S101, when the operation mode of the digital camera 100 is not the moving image shooting mode, the control unit 107 determines whether the operation mode of the digital camera 100 is the moving image playback mode (step S107). ). If it is determined in step S107 that the operation mode of the digital camera 100 is the moving image playback mode, the control unit 107 displays a thumbnail image indicating the moving image (sound is also associated) recorded in the recording unit 105. As shown in FIG. 4A, it is displayed on the display unit 103 (step S108). The image displayed as the thumbnail image is a representative image of each moving image. This representative image is, for example, an image of the first frame in a moving image or an image of a frame to which an index described later is attached.

サムネイル画像の表示後、制御部107は、鑑賞者の操作部108の操作によって動画像の選択がなされたか否かを判定する(ステップS109)。ステップS109の判定において、動画像の選択がなされていない場合に、制御部107は、サムネイル画像の表示を継続する。また、ステップS109の判定において、動画像の選択がなされた場合に、制御部107は、図4(b)に示すような、動画像の再生先を選択させる画面を表示部103に表示させる。図4(b)の例では、「1.再生」が動画像の再生先がデジタルカメラ100の表示部103であることを示しており、「2.TV」が動画像の再生先がTV200の表示部202であることを示している。図4(b)の画面の表示後、制御部107は動画像の再生先が表示部103であるか否かを判定する(ステップS110)。ステップS110の判定において、動画像の再生先が表示部103である場合に、制御部107は、現在、鑑賞者によって選択されている動画像を記録部105から読み出し、図4(c)に示すようにして、読み出した動画像の表示部103への再生を開始する(ステップS111)。この際、図4(c)に示すように動画像が再生中であることを示すメッセージを表示させるようにしても良い。   After displaying the thumbnail image, the control unit 107 determines whether or not a moving image has been selected by the operation of the operation unit 108 of the viewer (step S109). If it is determined in step S109 that no moving image has been selected, the control unit 107 continues displaying the thumbnail image. In addition, when a moving image is selected in the determination in step S109, the control unit 107 causes the display unit 103 to display a screen for selecting a moving image reproduction destination as illustrated in FIG. In the example of FIG. 4B, “1. Playback” indicates that the playback destination of the moving image is the display unit 103 of the digital camera 100, and “2. TV” is the playback destination of the moving image of the TV 200. The display unit 202 is displayed. After the screen shown in FIG. 4B is displayed, the control unit 107 determines whether the playback destination of the moving image is the display unit 103 (step S110). If the playback destination of the moving image is the display unit 103 in the determination in step S110, the control unit 107 reads the moving image currently selected by the viewer from the recording unit 105, as shown in FIG. Thus, the reproduction of the read moving image on the display unit 103 is started (step S111). At this time, as shown in FIG. 4C, a message indicating that the moving image is being reproduced may be displayed.

動画像の再生開始後、制御部107は、ユーザの操作部108の操作によって表示部103に再生する動画像の切り替えがなされたか否かを判定する(ステップS112)。ステップS112の判定において、動画像の切り替えがなされた場合に、制御部107は、動画像の再生を終了した後、再生する動画像の切り替えを行う(ステップS113)。この切り替えは、例えば、操作部108が操作される毎に再生中の動画像に対して撮影日時が古い(または、新しい)動画像に切り替えることで行う。動画像の切り替え後、制御部107は切り替えによって選択された動画像に対してステップS109以後の処理を行う。   After starting the reproduction of the moving image, the control unit 107 determines whether or not the moving image to be reproduced on the display unit 103 has been switched by the operation of the operation unit 108 by the user (step S112). When the moving image is switched in the determination in step S112, the control unit 107 switches the moving image to be reproduced after the reproduction of the moving image is completed (step S113). This switching is performed, for example, by switching to an old (or new) moving image with a shooting date and time with respect to the moving image being played each time the operation unit 108 is operated. After the moving image is switched, the control unit 107 performs the processing after step S109 on the moving image selected by the switching.

また、ステップS112の判定において、動画像の切り替えがなされていない場合に、制御部107は、ユーザの操作部108の操作によって動画像の再生終了が指示されたか否かを判定する(ステップS114)。ステップS114の判定において、動画像の終了が指示なされていない場合に、制御部107はステップS109以後の処理を行う。一方、ステップS114の判定において、動画像の終了操作がなされた場合に、制御部107はステップS101以後の処理を行う。   Further, when the moving image is not switched in the determination of step S112, the control unit 107 determines whether or not the reproduction end of the moving image is instructed by the operation of the user operation unit 108 (step S114). . If the end of the moving image is not instructed in the determination in step S114, the control unit 107 performs the processing after step S109. On the other hand, in the determination in step S114, when a moving image end operation is performed, the control unit 107 performs the processing from step S101.

また、ステップS107の判定において、デジタルカメラ100の動作モードが動画像再生モードでない場合に、制御部107は、図5に示すフローチャートの処理を実行する。この図5の処理は通信モードに対応した処理である。詳細は後述するが、通信モードにおいては、TV200の表示部202に動画像が再生される。そして、デジタルカメラ100は、鑑賞者によるリモコン400の操作に応じてTV200から入力される外部信号に従って動作する。   In the determination in step S107, when the operation mode of the digital camera 100 is not the moving image playback mode, the control unit 107 executes the process of the flowchart shown in FIG. The process of FIG. 5 is a process corresponding to the communication mode. Although details will be described later, in the communication mode, a moving image is reproduced on the display unit 202 of the TV 200. The digital camera 100 operates in accordance with an external signal input from the TV 200 in accordance with the operation of the remote controller 400 by the viewer.

通信モード中において、制御部107は、通信インタフェース部109を介してTV200から外部信号が受信されたか否かを判定する(ステップS201)。ステップ201の判定において、TV200から外部信号が入力されていない場合には、処理が図3のステップS101に戻る。また、ステップS201の判定において、TV200から外部信号が入力された場合に、制御部107は、入力された外部信号の識別を行う(ステップS202)。そして、制御部107は、外部信号が顔画像の合成命令を示す信号であるか否かを判定する(ステップS203)。ステップS203の判定において、外部信号が顔画像の合成命令を示す信号でない場合に、制御部107は、現在、撮像部101が動作中であれば、撮像部101の動作を停止させる(ステップS204)。詳細は後述するが、通信モード中においては、撮像部101は顔画像の合成命令を示す信号が入力されている間に動作するものである。撮像部101の動作を停止させた後、制御部107は、外部信号が動画像の再生命令を示す信号であるか否かを判定する(ステップS205)。ステップS205の判定において、外部信号が動画像の再生命令を示す信号である場合に、制御部107は、次に送信すべきフレームの画像をTV200に送信する(ステップS206)。一方、ステップS206の判定において、外部信号が動画像の再生命令を示す信号でない場合に、制御部107は、例えば所定時間の経過後に外部再生終了処理を行う(ステップS207)。この外部再生終了処理については後述する。ステップS206又はステップS207における処理の終了後、制御部107は図3のステップS101以後の処理を行う。   During the communication mode, the control unit 107 determines whether an external signal is received from the TV 200 via the communication interface unit 109 (step S201). If it is determined in step 201 that no external signal is input from the TV 200, the process returns to step S101 in FIG. In the determination in step S201, when an external signal is input from the TV 200, the control unit 107 identifies the input external signal (step S202). Then, the control unit 107 determines whether or not the external signal is a signal indicating a compositing instruction for a face image (step S203). If it is determined in step S203 that the external signal is not a signal indicating a face image synthesis command, the control unit 107 stops the operation of the imaging unit 101 if the imaging unit 101 is currently operating (step S204). . As will be described in detail later, in the communication mode, the imaging unit 101 operates while a signal indicating a face image synthesis command is being input. After stopping the operation of the imaging unit 101, the control unit 107 determines whether or not the external signal is a signal indicating a moving image reproduction command (step S205). If it is determined in step S205 that the external signal is a signal indicating a moving image reproduction command, the control unit 107 transmits an image of a frame to be transmitted next to the TV 200 (step S206). On the other hand, if it is determined in step S206 that the external signal is not a signal indicating a moving image playback command, the control unit 107 performs an external playback end process after a predetermined time, for example (step S207). The external reproduction end process will be described later. After the processing in step S206 or step S207 is completed, the control unit 107 performs processing after step S101 in FIG.

また、ステップS203の判定において、外部信号が合成命令を示す信号である場合に、制御部107は、再生中の動画の再生を一時停止した後、撮像部101を起動して鑑賞者の画像をフレーム単位で取得する(ステップS208)。そして、制御部107は、撮像部101を介して得られる鑑賞者の画像における顔部を顔検出部102によって検出し、検出した顔画像をトリミングしてTV200の表示部202に再生中の動画像の枠外に合成して表示できるようにし、例えば記録部105に後から、必要に応じて、鑑賞者の顔画像と現在再生中の動画像とを合成して保存できるように、顔画像を仮記録させる(ステップS209)。このように、顔画像のみをトリミングすることにより、記録部105の記録容量を節約することが可能である。また、合成する範囲を狭い範囲に限定することで、余計な背景等までもが写ることがなく、鑑賞者の表情を見易くすることができる。この時、集音部104を起動させ、音声を同時に取り込んで、必要に応じて声の変化がモニタできるようにして、後述のように、音声の変化で顔を、再生中の動画像内に合成するタイミングを決めるようにしてもよい。もちろん、顔画像、音声の、どちらか一方を指定できるようにしてもよい。   In the determination in step S203, when the external signal is a signal indicating a compositing command, the control unit 107 temporarily stops the reproduction of the moving image being reproduced, and then activates the imaging unit 101 to display the image of the viewer. Obtained in units of frames (step S208). Then, the control unit 107 detects the face portion in the viewer's image obtained via the imaging unit 101 by the face detection unit 102, trims the detected face image, and plays the moving image being reproduced on the display unit 202 of the TV 200. For example, the face image is temporarily stored in the recording unit 105 so that the face image of the viewer and the moving image currently being reproduced can be combined and stored later, if necessary. Recording is performed (step S209). In this way, it is possible to save the recording capacity of the recording unit 105 by trimming only the face image. In addition, by limiting the range to be combined to a narrow range, it is possible to make the viewer's facial expression easier to see without any extra background or the like being captured. At this time, the sound collection unit 104 is activated, and the voice is simultaneously captured so that the change in the voice can be monitored as necessary. You may make it determine the timing to synthesize | combine. Of course, either a face image or a sound may be designated.

顔画像の再生画面外(または、再生中の動画像の周辺部)への合成表示処理と仮記録後、制御部107は、位置変更処理を行う(ステップS210)。この位置変更処理について図6、図7を参照して説明する。位置変更処理は、図6(a)や図6(b)に示すようにして、TV200の表示部202に再生表示されている動画像202aの所定位置に鑑賞者の顔画像202bを合成したり、合成されている顔画像202bの位置を変更したりする処理である。この時、顔の大きさを変えられるようにしてもよい。   After the combined display process and provisional recording of the face image outside the reproduction screen (or the peripheral part of the moving image being reproduced), the control unit 107 performs a position change process (step S210). This position changing process will be described with reference to FIGS. In the position change process, as shown in FIG. 6A and FIG. 6B, the face image 202b of the viewer is synthesized at a predetermined position of the moving image 202a reproduced and displayed on the display unit 202 of the TV 200. This is a process of changing the position of the synthesized face image 202b. At this time, the size of the face may be changed.

図7において、制御部107は、位置変更処理における処理モードが自動変更モードであるか否かを判定する(ステップS301)。   In FIG. 7, the control unit 107 determines whether or not the processing mode in the position change process is the automatic change mode (step S301).

ステップ301の判定において、処理モードが自動変更モードである場合には、制御部107は、図5のステップS209において記録部105に記録した鑑賞者の顔画像から、鑑賞者の顔の表情を顔検出部102によって検出し、検出した顔の表情が例えば笑顔に変化したか否かを判定する(ステップS302)。ステップS302の判定において、鑑賞者の顔の表情が笑顔に変化した場合に、制御部107は、次にTV200に送信するフレームの画像におけるコントラストなし部(例えば図6(b)に示すような画像中の背景部)に、撮像中の顔画像を合成する(ステップS303)。この再生中の動画像内への顔画像の合成表示のタイミング決定には、表情の変化を用いる以外に、笑い声や話し声の大小変化を利用してもよい。盛り上がった時の表情は、皆が気になるからである。顔画像の再生中の動画像内への合成時に、制御部107は、顔画像の合成を行ったタイミングや、その時の顔画像や、フレームの位置を示す情報を合成履歴として記録部105に記録しておく。この時、前述のように、笑い声や話し声などの音声を記録しておくようにしてもよい。これによって、鑑賞者がどんな反応をしたかを、後から知ることができる。このようにして、適宜、再生中の動画像に顔画像が合成されるので、変化にとんだ表示にすることができる。単調に陥りがちなアマチュアの撮影した動画であっても、時折、画面内に鑑賞者の顔画像が侵入してくるので、変化のある動画像となる。ここでは、笑顔のみ再生中の動画像内に侵入したが、つまらなそうな顔が入ってくれば、単調な画像に変化がつく、という考え方で、そうした表情を利用してもよい。   If it is determined in step 301 that the processing mode is the automatic change mode, the control unit 107 determines the facial expression of the viewer from the viewer's face image recorded in the recording unit 105 in step S209 of FIG. It is determined whether or not the facial expression detected by the detection unit 102 has changed to, for example, a smile (step S302). If it is determined in step S302 that the facial expression of the viewer changes to a smile, the control unit 107 causes the non-contrast part (for example, an image as shown in FIG. 6B) in the frame image to be transmitted to the TV 200 next. The face image being imaged is synthesized with the background portion in the middle (step S303). In order to determine the synthesis display timing of the face image in the moving image being reproduced, a change in the size of the laughing voice or the speaking voice may be used in addition to the change in the facial expression. This is because everyone is worried about the expression when they get excited. At the time of compositing the facial image into the moving image being played back, the control unit 107 records information indicating the timing at which the facial image is synthesized, the facial image at that time, and the position of the frame in the recording unit 105 as a synthesis history. Keep it. At this time, as described above, voices such as laughter and spoken voice may be recorded. This allows you to know later how the viewer has reacted. In this way, the face image is appropriately combined with the moving image being reproduced, so that the display can be changed. Even a video shot by an amateur who tends to fall into a monotonous state, a viewer's face image sometimes intrudes into the screen, resulting in a moving image with changes. Here, although only a smile is invaded into the moving image being played back, such a facial expression may be used based on the idea that a monotonous image will change if a boring face appears.

また、常に、再生中の動画像に顔画像が侵入したままでは、めりはりがなくなるので、表情や音声の大きさが戻った場合、あるいは、リモコン400での操作があった場合には、侵入していた顔画像は再生中の画面の外、または、周辺部に待避させる。デジタルカメラ100においては、このような再生形態を実現させるために、再生中の動画像と顔画像とを合成してTV200に表示させている(HDMIで送っている)が、この場合、合成情報(履歴)としては、合成は解除されたこととする。   In addition, when the face image always invades the moving image being played back, there is no inflection, so when the facial expression or the sound volume returns, or when there is an operation with the remote control 400, The invading face image is saved outside the screen being played or in the periphery. In the digital camera 100, in order to realize such a reproduction form, the moving image and the face image being reproduced are combined and displayed on the TV 200 (sent by HDMI). In this case, the combination information As (history), it is assumed that the composition is canceled.

また、再生中の動画像の枠外、または、周辺部に顔画像が位置している場合は、なるべく目立たなく、小さく表示した方が良いので、TV200の表示部202の画面サイズに応じて、顔画像の表示大きさを変更してもよい。大きな画面のTV200であれば、画面の広い範囲を使わなくとも、顔が映っていることを確認可能である。   Also, if the face image is located outside or around the moving image frame being played, it is better to display the face image as inconspicuously as possible. The display size of the image may be changed. If the TV 200 has a large screen, it can be confirmed that the face is reflected without using a wide range of the screen.

なお、動画像の鑑賞者は複数人であることも考えられ、この場合には、必ずしも全員の表情が笑顔に変化するとは限らない。このような撮像部101を介して得られる鑑賞者の画像として複数の顔が存在している場合には例えば表情が笑顔に変化した顔画像のみを合成する。勿論、全員の顔画像を合成するようにしても良い。こうした切り替えを声の大小によって決定してもよい。大きな声なら全員の顔を再生画像の中に合成、小さな声なら笑顔の顔のみを再生画像の中に合成するといった具合である。また、説明の単純化のため、省略したが、鑑賞者の表情が笑顔でなくなった場合は、ステップS303での合成は解除され、顔画像は再生画像の画面外、または周辺部に待避する。また、コントラストなし部と書いたが、時間変化がない部分であってもよい。人物が被写体である場合、人物の顔を隠さない位置なら、その他の場所でもよい。   Note that there may be a plurality of viewers of the moving image, and in this case, not all the facial expressions change to smiles. When there are a plurality of faces as an image of the viewer obtained through such an image pickup unit 101, for example, only a face image whose expression is changed to a smile is synthesized. Of course, all the face images may be combined. Such switching may be determined by the size of the voice. If the voice is loud, the faces of everyone are combined in the playback image. If the voice is small, only the smiling face is composited in the playback image. Although omitted for simplification of description, if the viewer's facial expression is no longer a smile, the composition in step S303 is canceled and the face image is saved outside the screen of the reproduced image or in the periphery. In addition, although the portion without contrast is written, it may be a portion with no time change. When a person is a subject, any other place may be used as long as the face is not hidden.

また、ステップS301の判定において、処理モードが自動変更モードでない場合、又はステップS302の判定において、鑑賞者の顔の表情が笑顔に変化していない場合に、制御部107は、鑑賞者によるリモコン400の操作によって顔画像の合成位置を変更する旨を示す外部信号が入力されたか否かを判定する(ステップS304)。ステップS304の判定において、顔画像の合成位置を変更する旨を示す外部信号が入力された場合に、制御部107は、次にTV200に送信するフレームの画像中の鑑賞者によるリモコン400の操作に従って指定された位置に、記録部105に記録した顔画像を合成する(ステップS305)。顔画像の合成後に、制御部107は、顔画像の合成を行ったフレームの位置を示す情報を合成履歴として記録部105に記録しておく。   If the processing mode is not the automatic change mode in the determination in step S301, or if the facial expression of the viewer has not changed to a smile in the determination in step S302, the control unit 107 controls the remote controller 400 by the viewer. It is determined whether or not an external signal indicating that the face image composition position is to be changed has been input by the operation (step S304). If it is determined in step S304 that an external signal indicating that the face image synthesis position is to be changed is input, the control unit 107 follows the operation of the remote controller 400 by the viewer in the frame image to be transmitted to the TV 200 next. The face image recorded in the recording unit 105 is synthesized at the designated position (step S305). After the synthesis of the face image, the control unit 107 records information indicating the position of the frame where the face image is synthesized in the recording unit 105 as a synthesis history.

ステップS303又はステップS305の合成の後、制御部107は、次にTV200の送信するフレームの画像に対してインデックス情報を付与する(ステップS306)。こうした工夫によって、後から見直す時の検索の補助とすることができる。その後に、制御部107は、顔画像を合成したフレームの画像をTV200に送信する(ステップS307)。その後に、制御部107は図7の処理を終了させる。なお、顔画像の合成後に、制御部107は、顔画像の合成を行ったフレームの位置を示す情報を合成履歴として記録部105に記録しておく。   After combining in step S303 or step S305, the control unit 107 adds index information to the frame image transmitted next by the TV 200 (step S306). Such a device can assist the search when reviewing later. Thereafter, the control unit 107 transmits a frame image obtained by combining the face images to the TV 200 (step S307). Thereafter, the control unit 107 ends the process of FIG. Note that after the face image is synthesized, the control unit 107 records information indicating the position of the frame where the face image is synthesized in the recording unit 105 as a synthesis history.

このように、本実施形態では、自動又は手動で動画像中にインデックス情報を付与することにより、動画像の再生中に盛り上がったと考えられるポイントを自動又は手動で指定することができる。これにより、次回の鑑賞時において、動画像中の盛り上がったポイントの特定が容易である。また、特に、複数人で動画像を鑑賞していたときには、その当時の各鑑賞者の表情も見ることができ、より鑑賞者にとって興味の高い動画像を作成することが可能である。   As described above, according to the present embodiment, by adding index information to a moving image automatically or manually, it is possible to automatically or manually specify a point that is considered to have risen during reproduction of the moving image. This makes it easy to identify the raised points in the moving image during the next appreciation. In particular, when a plurality of people are watching a moving image, the facial expressions of each viewer at that time can be seen, and a moving image that is more interesting to the viewer can be created.

また、ステップS304の判定において、外部信号が入力されていない場合に、制御部107は、例えば所定時間の経過後に、次にTV200に送信するフレームの画像中のメインの表示部以外の位置(例えば図6(a)に示すような動画像202aの外部)に、記録部105に記録した顔画像を合成し、顔画像を合成したフレームの画像をTV200に送信する(ステップS308)。   In the determination in step S304, if no external signal is input, the control unit 107, for example, after a predetermined time has elapsed, for example, a position other than the main display unit in the image of the frame to be transmitted to the TV 200 next (for example, The face image recorded in the recording unit 105 is synthesized on the outside of the moving image 202a as shown in FIG. 6A, and the frame image obtained by synthesizing the face image is transmitted to the TV 200 (step S308).

ここで、再び図3の説明に戻る。図3のステップS110の判定において、動画像の再生先がTV200の表示部202である場合に、制御部107は、図8に示す通信モードへの移行処理を行う。即ち、制御部107は、通信インタフェース部109を介してTV200に、現在、鑑賞者によって選択されている動画像の代表画像(例えば、最初のフレームの画像やインデックス情報が付与されているフレームの画像)を送信する(ステップS401)。   Here, it returns to description of FIG. 3 again. In the determination in step S110 of FIG. 3, when the playback destination of the moving image is the display unit 202 of the TV 200, the control unit 107 performs a transition process to the communication mode shown in FIG. That is, the control unit 107 displays the representative image of the moving image currently selected by the viewer (for example, the image of the first frame or the image of the frame to which the index information is added) on the TV 200 via the communication interface unit 109. ) Is transmitted (step S401).

代表画像の送信後、制御部107は、通信インタフェース部109を介してTV200に、リモコン操作表示画像を送信する(ステップS402)。リモコン操作表示画像とは、図9(a)や図9(b)に示すような、デジタルカメラ100からの動画像をTV200の表示部202に表示させている際の、リモコン400の操作を案内するための表示画像202cである。このようなリモコン操作表示画像202cを見ることにより、鑑賞者はリモコン400のどのボタンを操作すればどのような操作を行うことができるかを理解し易い。   After transmitting the representative image, the control unit 107 transmits a remote control operation display image to the TV 200 via the communication interface unit 109 (step S402). The remote control operation display image guides the operation of the remote control 400 when a moving image from the digital camera 100 is displayed on the display unit 202 of the TV 200 as shown in FIGS. 9A and 9B. It is a display image 202c for doing. By viewing such a remote control operation display image 202c, the viewer can easily understand what operation can be performed by operating which button of the remote control 400.

ここで、図9(a)に示すリモコン操作表示画像202cは、代表画像の送信後にTV200の表示部202に表示される画像である。図9(a)に示すリモコン操作表示画像202cがなされている際にリモコン400の再生ボタンが押された場合には、TV200からデジタルカメラ100に対して再生命令を示す信号が入力される。一方、リモコン400の撮像ボタンが押された場合には、TV200からデジタルカメラ100に対して合成命令を示す信号が入力される。また、図9(b)に示すリモコン操作表示画像202cは、リモコン400の撮像ボタンが押された後にTV200の表示部202に表示される画像である。図9(b)に示すリモコン操作表示画像202cがなされている際にリモコン400の再生ボタンが押された場合には、TV200からデジタルカメラ100に対して再生命令を示す信号が入力される。一方、リモコン400の位置変更ボタンが押された場合には、表示部202に表示されている顔画像202bの位置が変更されるとともに、TV200からデジタルカメラ100に対して顔画像202bの合成位置を変更する旨を示す信号が入力される。   Here, the remote control operation display image 202c shown in FIG. 9A is an image displayed on the display unit 202 of the TV 200 after the representative image is transmitted. When the playback button of the remote control 400 is pressed while the remote control operation display image 202 c shown in FIG. 9A is being made, a signal indicating a playback command is input from the TV 200 to the digital camera 100. On the other hand, when the imaging button of the remote controller 400 is pressed, a signal indicating a compositing command is input from the TV 200 to the digital camera 100. A remote control operation display image 202c shown in FIG. 9B is an image displayed on the display unit 202 of the TV 200 after the imaging button of the remote control 400 is pressed. When the playback button of the remote control 400 is pressed while the remote control operation display image 202c shown in FIG. 9B is being made, a signal indicating a playback command is input from the TV 200 to the digital camera 100. On the other hand, when the position change button of the remote controller 400 is pressed, the position of the face image 202b displayed on the display unit 202 is changed, and the composition position of the face image 202b from the TV 200 to the digital camera 100 is changed. A signal indicating the change is input.

リモコン操作表示画像202cの送信後、制御部107は、デジタルカメラ100の表示部103の表示をオフする(ステップS403)。表示部103の表示をオフした後、制御部107は、図1のステップS101以後の処理を行う。即ち、通信モードにおいてはデジタルカメラ100に記録されている動画像がTV200の表示部202に表示されるため、鑑賞者がデジタルカメラ100の表示部103を見ることはないと考えられる。したがって、省エネルギー化を図るため、表示部103の表示をオフする。表示部103の表示をオフした後、制御部107は、デジタルカメラ100の動作モードを通信モードに移行させる(ステップS404)。なお、表示部103の表示をオフさせずに図4(d)で示すような通信モード中であることを示す表示を行うようにしても良い。   After transmitting the remote control operation display image 202c, the control unit 107 turns off the display on the display unit 103 of the digital camera 100 (step S403). After turning off the display of the display unit 103, the control unit 107 performs the processing after step S101 in FIG. That is, in the communication mode, since the moving image recorded in the digital camera 100 is displayed on the display unit 202 of the TV 200, it is considered that the viewer does not see the display unit 103 of the digital camera 100. Therefore, the display on the display unit 103 is turned off in order to save energy. After turning off the display of the display unit 103, the control unit 107 shifts the operation mode of the digital camera 100 to the communication mode (step S404). In addition, you may make it perform the display which shows that it is in communication mode as shown in FIG.4 (d), without turning off the display of the display part 103. FIG.

次に、外部再生終了処理について図10、図11を参照して説明する。図10において、制御部107は、再生が終了した動画像に対応した合成履歴が記録部105に記録されているか否かを判定する(ステップS501)。ステップS501の判定において、合成履歴が記録部105に記録されている場合に、制御部107は、顔画像を合成した動画像を記録部105に記録するか否かを鑑賞者に確認するための画面を表示させるための画像をTV200に送信する(ステップS502)。図11はTV200の表示部202に表示される確認画面の一例を示した図である。図11の例では、再生が終了した動画像の代表画像202aを表示部202に表示させるとともに、この外部再生終了処理中における鑑賞者のリモコン400の操作を案内するためのリモコン操作表示画像202cを表示させる。   Next, the external reproduction end process will be described with reference to FIGS. In FIG. 10, the control unit 107 determines whether or not a synthesis history corresponding to a moving image that has been reproduced is recorded in the recording unit 105 (step S501). In the determination in step S501, when the synthesis history is recorded in the recording unit 105, the control unit 107 confirms to the viewer whether or not to record the moving image obtained by synthesizing the face image in the recording unit 105. An image for displaying the screen is transmitted to the TV 200 (step S502). FIG. 11 is a diagram showing an example of a confirmation screen displayed on the display unit 202 of the TV 200. In the example of FIG. 11, a representative image 202a of a moving image that has been played back is displayed on the display unit 202, and a remote control operation display image 202c for guiding the operation of the remote controller 400 of the viewer during the external playback end process Display.

図11に示すような確認画面を表示させるための画像の送信後、制御部107は、鑑賞者によるリモコン400の操作により動画像の保存が指示されたか否かを判定する(ステップS503)。ステップS503の判定において、保存が指示された場合には合成履歴に従って動画像中において合成を行ったフレームを特定し、特定したフレームの画像に、記録部105に記録しておいた顔画像を合成して記録部105に記録する(ステップS504)。顔画像を合成した動画像を再記録することにより、例えば皆で動画像を鑑賞したときの様子を他のメンバーも後から追体験することができる。例えば、運動会の様子等をデジタルカメラ100によって撮影した場合に、この運動会の様子を記録した動画像を、まず、親子で鑑賞し、そのときの動画像を祖父母に送る等すれば、祖父母はあたかも親子の団欒に参加したかのような体験を味わうことができる。前述のように、再生中の動画像内に顔画像の侵入の処理がない場合、顔画像が再生中の動画像の画面外にあったり、図6(a)のように周辺部にある場合は、合成履歴はないとする。図6(b)のような顔画像侵入シーンのみが合成履歴の対象となる。この場合、顔の大きさをリモコン400で変更できるようにしてもよい。また、顔をそのまま表示すると、自分の顔が見られるのが嫌な人もいるので、アバターなど他の顔画像を代用して表示するようにしてもよい。   After transmitting the image for displaying the confirmation screen as shown in FIG. 11, the control unit 107 determines whether or not an instruction to save the moving image is given by the operation of the remote controller 400 by the viewer (step S503). In the determination in step S503, if saving is instructed, the frame that has been combined in the moving image is specified according to the combination history, and the face image recorded in the recording unit 105 is combined with the image of the specified frame. Then, it is recorded in the recording unit 105 (step S504). By re-recording a moving image obtained by synthesizing a face image, for example, other members can later relive the appearance of watching the moving image together. For example, when a state of an athletic meet is photographed with the digital camera 100, if the parent and child first view a moving image recording the state of the athletic meet and send the moving image at that time to the grandparents, You can experience the experience as if you were participating in a parent-child group. As described above, when there is no invasion process of the face image in the moving image being played back, the face image is outside the screen of the moving image being played back, or is in the peripheral part as shown in FIG. Is assumed to have no composition history. Only the face image intrusion scene as shown in FIG. In this case, the size of the face may be changed with the remote controller 400. In addition, if the face is displayed as it is, there is a person who does not like to see his / her face, so other face images such as an avatar may be displayed instead.

このように、本実施形態においては、顔画像の合成履歴が記録されていく形であるので、記録された顔画像を別の画像に置換えるのも簡単にできる。   As described above, in the present embodiment, since the face image synthesis history is recorded, it is possible to easily replace the recorded face image with another image.

ステップS501において合成履歴が記録部105に記録されていない場合、ステップS503において動画像の保存が指示されていない場合、又はステップS504の後、制御部107は、鑑賞者によるリモコン400の操作により通信モード時の動画像の再生の終了が指示されたか否かを判定する(ステップS505)。ステップS505の判定において、通信モード時の動画像の再生の終了が指示された場合に、制御部107は、デジタルカメラ100の動作モードを再生モードに変更する(ステップS506)。その後、ステップS101以後の処理を行う。一方、ステップS505の判定において、通信モード時の動画像の再生の終了が指示されていない場合に、制御部107は、鑑賞者によるリモコン400の操作によりリプレイが指示されたか否かを判定する(ステップS507)。ステップS507の判定において、リプレイが指示されていない場合に、制御部107は、ステップS505以後の処理を行う。また、ステップS507の判定において、リプレイが指示された場合に、制御部107は、図5のステップS201以後の処理を実行する。   If the composite history is not recorded in the recording unit 105 in step S501, if saving of moving images is not instructed in step S503, or after step S504, the control unit 107 performs communication by operating the remote controller 400 by the viewer. It is determined whether or not an instruction to end reproduction of the moving image in the mode is given (step S505). When it is determined in step S505 that the end of moving image playback in the communication mode is instructed, the control unit 107 changes the operation mode of the digital camera 100 to the playback mode (step S506). Thereafter, the processing after step S101 is performed. On the other hand, when it is determined in step S505 that the end of moving image playback in the communication mode is not instructed, the control unit 107 determines whether or not replay is instructed by an operation of the remote controller 400 by the viewer ( Step S507). If it is determined in step S507 that replay is not instructed, the control unit 107 performs the processing after step S505. Further, when the replay is instructed in the determination in step S507, the control unit 107 executes the processing after step S201 in FIG.

以上説明したように、本実施形態によれば、デジタルカメラ100の記録部105に記録された動画像をTV200の表示部202に再生している際に、この動画像を鑑賞している鑑賞者の顔画像も合わせて再生することができる。これにより、動画像の鑑賞者が興味を持ち易い動画像を得ることができる。また、鑑賞者の顔の表情が笑顔になって顔画像の合成がなされたフレームや、鑑賞者によって顔画像の合成位置が指定されたフレームに対してインデックス情報を付与することで、後の検索において動画像中の重要シーンを特定することも可能である。   As described above, according to the present embodiment, when a moving image recorded in the recording unit 105 of the digital camera 100 is reproduced on the display unit 202 of the TV 200, a viewer who is viewing this moving image. Can also be played back together. Thereby, it is possible to obtain a moving image in which a viewer of the moving image is likely to be interested. In addition, index information is added to the frame where the facial expression of the viewer smiles and the facial image is synthesized, or to the frame where the facial image synthesis position is specified by the viewer. It is also possible to specify an important scene in the moving image.

さらに、TV200において再生する動画像はデジタルカメラ100で選択された動画像のみとすることにより、デジタルカメラ100に記録されているプライベートな動画像がTV200の表示部202で不意に大画面表示されることがない。   Furthermore, the moving image to be played back on the TV 200 is only the moving image selected by the digital camera 100, so that the private moving image recorded on the digital camera 100 is unexpectedly displayed on the large screen on the display unit 202 of the TV 200. There is nothing.

ここで、上述した実施形態においては、TV200の表示部202に再生している動画像に鑑賞者の顔画像を合成している。これに対し、本実施形態はデジタルカメラ100の表示部103に再生している動画像に鑑賞者の顔画像を合成するような場合にも適用可能である。また、TV200に鑑賞者の顔画像を撮像するための撮像部を持たせるようにしても良い。   Here, in the above-described embodiment, the viewer's face image is combined with the moving image reproduced on the display unit 202 of the TV 200. On the other hand, the present embodiment can also be applied to a case where a viewer's face image is combined with a moving image reproduced on the display unit 103 of the digital camera 100. Further, the TV 200 may be provided with an image capturing unit for capturing the face image of the viewer.

また、上述した実施形態では顔画像を動画像のフレーム単位で合成するようにしているので、顔画像の合成位置をフレーム毎にずらすようにすれば顔画像をアニメーションさせる等することも可能である。   In the above-described embodiment, since the face image is synthesized in units of frames of the moving image, it is possible to animate the face image by shifting the synthesis position of the face image for each frame. .

さらに、上述した実施形態ではデジタルカメラ100に記録されている動画像に顔画像を合成してTV200で再生するようにしているが、これに限らず本実施形態の手法は動画撮影機能を有する各種の携帯機器に対して適用可能である。   Furthermore, in the above-described embodiment, the face image is synthesized with the moving image recorded in the digital camera 100 and reproduced on the TV 200. However, the present embodiment is not limited to this, and the method of the present embodiment has various video shooting functions. It can be applied to other portable devices.

また、ここでは動画像に変化をつける前提で説明を行ったが、TV200に静止画を表示しながら、再生中に得られた顔画像、または、顔画像情報に基づくアバターなどの画像を合成していくような用途にも利用可能であることは言うまでもない。これによって、沢山の静止画を見る場合に、どの画像に人気があったかなどを、その場で、または、他の人が知ることができる。   Although the description has been made on the assumption that the moving image is changed here, a face image obtained during playback or an image such as an avatar based on the face image information is synthesized while displaying a still image on the TV 200. Needless to say, it can be used for various purposes. As a result, when viewing a lot of still images, it is possible for other people to know which image was popular on the spot.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

100…デジタルカメラ、101…撮像部、102…顔検出部、103…表示部、104…集音部、105…記録部、106…時計部、107…制御部、108…操作部、109…通信インタフェース部、200…テレビジョン受像機(TV)、200…TV、201…放送受信部、202…表示部、203…ネットワーク通信部、204…情報重畳部、205…制御部、206…リモコン信号受信部、207…通信インタフェース部、300…通信ケーブル、400…リモートコントローラ(リモコン)   DESCRIPTION OF SYMBOLS 100 ... Digital camera, 101 ... Imaging part, 102 ... Face detection part, 103 ... Display part, 104 ... Sound collection part, 105 ... Recording part, 106 ... Clock part, 107 ... Control part, 108 ... Operation part, 109 ... Communication Interface unit 200 ... Television receiver (TV), 200 ... TV, 201 ... Broadcast receiving unit, 202 ... Display unit, 203 ... Network communication unit, 204 ... Information superimposing unit, 205 ... Control unit, 206 ... Remote control signal reception 207 ... Communication interface unit 300 ... Communication cable 400 ... Remote controller (remote controller)

Claims (11)

動画像を取得する撮像部と、
上記撮像部で得られた動画像中の顔画像を検出する顔検出部と、
上記顔検出部によって検出された顔画像をトリミングするトリミング部と、
上記撮像部で取得された動画像を記録する記録部と、
表示部を有する外部装置へ上記記録部に記録された動画像を送信するための通信インタフェース部と、
上記外部装置の表示部において再生中の動画像に上記トリミングされた顔画像を合成表示させるために、当該外部装置へ送信された動画像に当該トリミングされた顔画像を合成する合成部と
を具備し、
上記撮像部は上記外部装置から顔画像の合成命令を示す信号を受信したタイミングで起動され、
上記顔検出部によって検出された顔画像の表情の変化のタイミングで上記外部装置へ送信された動画像に上記トリミングされた顔画像を合成表示させることを特徴とするデジタルカメラ。
An imaging unit for acquiring a moving image;
A face detection unit for detecting a face image in a moving image obtained by the imaging unit;
A trimming unit for trimming the face image detected by the face detection unit;
A recording unit for recording a moving image acquired by the imaging unit;
A communication interface unit for transmitting the moving image recorded in the recording unit to an external device having a display unit;
A synthesizing unit that synthesizes the trimmed face image with the moving image transmitted to the external device in order to synthesize and display the trimmed face image on the moving image being reproduced on the display unit of the external device; And
The imaging unit is activated at the timing of receiving a signal indicating a face image synthesis command from the external device,
A digital camera characterized in that the trimmed face image is synthesized and displayed on a moving image transmitted to the external device at a timing of a change in facial expression detected by the face detection unit .
上記顔画像の表情の変化のタイミングは、当該顔画像の表情が笑顔に変化したタイミングであることを特徴とする請求項1に記載のデジタルカメラ。The digital camera according to claim 1, wherein the facial image expression change timing is a timing at which the facial image expression changes to a smile. 上記合成部が上記トリミングされた顔画像を合成する位置は、上記外部装置へ送信された動画像においてコントラストがない部位又は時間変化のない部分であることを特徴とする請求項1に記載のデジタルカメラ。2. The digital signal according to claim 1, wherein a position where the synthesizing unit synthesizes the trimmed face image is a portion having no contrast or a portion having no time change in the moving image transmitted to the external device. camera. 上記記録部に、顔画像の合成を行ったタイミング及びそのタイミングの顔画像を合成履歴として記録しておくことを特徴とする請求項2又は3に記載のデジタルカメラ。4. The digital camera according to claim 2, wherein a timing at which the face image is synthesized and a face image at the timing are recorded as a synthesis history in the recording unit. 上記トリミングされた顔画像が上記動画像内に侵入して合成されていた場合であって、表情又は音声の大きさが戻った場合に、当該顔画像を再生中の画面の外、又は、周辺部に待避させることを特徴とする請求項2又は3に記載のデジタルカメラ。When the trimmed face image is invaded into the moving image and synthesized, and when the facial expression or the sound volume returns, outside or around the screen where the face image is being reproduced The digital camera according to claim 2, wherein the digital camera is retracted. 上記顔検出部によって複数の顔画像が検出された場合、上記合成部は表情が笑顔に変化した顔画像のみを合成することを特徴とする請求項1に記載のデジタルカメラ。2. The digital camera according to claim 1, wherein, when a plurality of face images are detected by the face detection unit, the synthesis unit synthesizes only a face image whose expression changes to a smile. 表示部を有する外部装置へ、第1の動画像を送信し、The first moving image is transmitted to an external device having a display unit,
上記外部装置から顔画像の合成命令を示す信号を受信したタイミングで撮像部を起動して、上記外部装置へ送信した上記第1の動画像とは異なる第2の動画像を取得し、The imaging unit is activated at a timing at which a signal indicating a facial image synthesis command is received from the external device, and a second moving image different from the first moving image transmitted to the external device is acquired.
上記取得した第2の動画像中の顔画像を検出し、Detecting a face image in the acquired second moving image;
上記検出された顔画像をトリミングし、Trim the detected face image,
上記外部装置の表示部において再生中の第1の動画像に上記トリミングした顔画像を合成表示させるために、上記検出された顔画像の表情の変化のタイミングで当該外部装置へ送信した第1の動画像に当該トリミングした顔画像を合成し、In order to synthesize and display the trimmed face image on the first moving image being reproduced on the display unit of the external device, the first transmitted to the external device at the timing of the change in facial expression of the detected face image Compositing the trimmed face image to the moving image,
上記外部装置へ送信した第1の動画像に上記トリミングした顔画像を合成表示させることを特徴とするデジタルカメラの合成画像表示方法。A composite image display method for a digital camera, wherein the trimmed face image is combined and displayed on the first moving image transmitted to the external device.
動画像を取得する撮像部と、An imaging unit for acquiring a moving image;
上記撮像部で得られた動画像中の顔画像を検出する顔検出部と、A face detection unit for detecting a face image in a moving image obtained by the imaging unit;
上記顔検出部によって検出された顔画像をトリミングするトリミング部と、A trimming unit for trimming the face image detected by the face detection unit;
上記撮像部で取得された動画像を記録する記録部と、A recording unit for recording a moving image acquired by the imaging unit;
表示部を有する外部装置へ上記記録部に記録された動画像を送信するための通信インタフェース部と、A communication interface unit for transmitting the moving image recorded in the recording unit to an external device having a display unit;
上記外部装置の表示部において再生中の動画像に上記トリミングされた顔画像を合成表示させるために、当該外部装置へ送信された動画像に当該トリミングされた顔画像を合成する合成部と、A synthesizing unit that synthesizes the trimmed face image with the moving image transmitted to the external device in order to synthesize and display the trimmed face image on the moving image being reproduced on the display unit of the external device;
集音部と、The sound collection section;
を具備し、Comprising
上記撮像部及び上記集音部は上記外部装置から顔画像の合成命令を示す信号を受信したタイミングで起動され、The image pickup unit and the sound collection unit are activated at the timing of receiving a signal indicating a face image synthesis command from the external device,
上記外部装置へ送信された動画像に上記トリミングされた顔画像を合成表示させるタイミングは、上記集音部によって検出された音の変化に基づくタイミングであることを特徴とするデジタルカメラ。The digital camera characterized in that the timing for synthesizing and displaying the trimmed face image on the moving image transmitted to the external device is a timing based on a change in sound detected by the sound collecting unit.
上記音の変化は、上記集音部によって検出された音の大小の変化であることを特徴とする請求項8に記載のデジタルカメラ。9. The digital camera according to claim 8, wherein the change in sound is a change in magnitude of sound detected by the sound collecting unit. 上記顔検出部によって複数の顔画像が検出された場合、上記集音部によって検出された音が大きな声なら全員の顔画像を上記動画像の中に合成し、小さな声なら笑顔の顔画像のみを上記動画像の中に合成することを特徴とする請求項8に記載のデジタルカメラ。When a plurality of face images are detected by the face detection unit, if the sound detected by the sound collection unit is loud, all face images are synthesized into the moving image. The digital camera according to claim 8, wherein the image is synthesized in the moving image. 表示部を有する外部装置へ第1の動画像を送信し、Transmitting the first moving image to an external device having a display unit;
外部装置から顔画像の合成命令を示す信号を受信したタイミングで撮像部を起動して、上記外部装置へ送信した上記第1の動画像とは異なる第2の動画像を取得し、The imaging unit is activated at a timing when a signal indicating a face image synthesis command is received from an external device, and a second moving image different from the first moving image transmitted to the external device is acquired.
上記取得した第2の動画像中の顔画像を検出し、Detecting a face image in the acquired second moving image;
上記検出された顔画像をトリミングし、Trim the detected face image,
上記第2の動画像の取得と同時に周囲の音を集音し、Simultaneously with the acquisition of the second moving image, the surrounding sounds are collected,
上記外部装置の表示部において再生中の第1の動画像に上記トリミングした顔画像を合成表示させるために、上記検出された音の大小の変化のタイミングで当該外部装置へ送信した第1の動画像に当該トリミングした顔画像を合成し、The first moving image transmitted to the external device at the timing of the detected change in magnitude in order to synthesize and display the trimmed face image on the first moving image being reproduced on the display unit of the external device Combine the trimmed face image with the image,
上記外部装置へ送信した第1の動画像に上記トリミングした顔画像を合成表示させることを特徴とするデジタルカメラの合成画像表示方法。A composite image display method for a digital camera, wherein the trimmed face image is combined and displayed on the first moving image transmitted to the external device.
JP2009158881A 2009-07-03 2009-07-03 Digital camera and composite image display method of digital camera Expired - Fee Related JP5457092B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009158881A JP5457092B2 (en) 2009-07-03 2009-07-03 Digital camera and composite image display method of digital camera
CN201610186833.0A CN105721752B (en) 2009-07-03 2010-07-02 Photographic device and image capture method
CN201010222803.3A CN101945216B (en) 2009-07-03 2010-07-02 Camera head and moving image reproduction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009158881A JP5457092B2 (en) 2009-07-03 2009-07-03 Digital camera and composite image display method of digital camera

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2014002743A Division JP5774731B2 (en) 2014-01-09 2014-01-09 Digital camera and composite image display method of digital camera
JP2014002744A Division JP5654148B2 (en) 2014-01-09 2014-01-09 Digital camera and composite image display method of digital camera

Publications (3)

Publication Number Publication Date
JP2011015279A JP2011015279A (en) 2011-01-20
JP2011015279A5 JP2011015279A5 (en) 2012-08-16
JP5457092B2 true JP5457092B2 (en) 2014-04-02

Family

ID=43436958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009158881A Expired - Fee Related JP5457092B2 (en) 2009-07-03 2009-07-03 Digital camera and composite image display method of digital camera

Country Status (2)

Country Link
JP (1) JP5457092B2 (en)
CN (2) CN105721752B (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6119534B2 (en) * 2013-09-30 2017-04-26 株式会社Jvcケンウッド Imaging display apparatus and control method
CN104637078B (en) * 2013-11-14 2017-12-15 腾讯科技(深圳)有限公司 A kind of image processing method and device
JP6289107B2 (en) * 2014-01-14 2018-03-07 キヤノン株式会社 Image reproduction apparatus, control method thereof, and control program
CN104869283B (en) * 2015-05-11 2018-12-14 联想(北京)有限公司 A kind of image pickup method and electronic equipment
JP2017038344A (en) * 2015-08-13 2017-02-16 辰巳電子工業株式会社 Game imaging apparatus and image processing method
JP2017046162A (en) * 2015-08-26 2017-03-02 隆正 光信 Synthetic moving image creation system, synthetic moving image creation support system and synthetic moving image creation program
CN106341608A (en) * 2016-10-28 2017-01-18 维沃移动通信有限公司 Emotion based shooting method and mobile terminal
JP6520975B2 (en) * 2017-03-16 2019-05-29 カシオ計算機株式会社 Moving image processing apparatus, moving image processing method and program
JP7005340B2 (en) * 2017-12-27 2022-01-21 キヤノン株式会社 Electronics
JP7281951B2 (en) * 2019-04-22 2023-05-26 シャープ株式会社 ELECTRONIC DEVICE, CONTROL DEVICE, CONTROL PROGRAM AND CONTROL METHOD

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2999501B2 (en) * 1990-02-26 2000-01-17 パイオニア株式会社 Recording medium playing device
JPH04183183A (en) * 1990-11-19 1992-06-30 Ee D S:Kk Image signal processor
ITRM920546A1 (en) * 1992-07-17 1994-01-17 Giorgio Belmonte MULTIFUNCTIONAL SYSTEM FOR EXTEMPORARY SHOOTING AND VIDEO RECORDING, OVERLAYED WITH MUSIC BACKING TRACKS AND VIDEO IMAGES
CN1156377A (en) * 1995-12-27 1997-08-06 娱乐消遣技术株式会社 Karaoke system
DE69908005T2 (en) * 1998-03-16 2004-04-01 Sanyo Electric Co., Ltd., Moriguchi Digital camera with the possibility of image processing
JP2000069348A (en) * 1998-08-20 2000-03-03 Canon Inc Image pickup device
JP2000312336A (en) * 1999-04-27 2000-11-07 Koji Nakamura Video television device
JP2004501576A (en) * 2000-06-20 2004-01-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Karaoke system
EP1679885A1 (en) * 2003-08-11 2006-07-12 Matsushita Electric Industrial Co., Ltd. Photographing system and photographing method
JP2006287749A (en) * 2005-04-01 2006-10-19 Canon Inc Imaging apparatus and control method thereof
JP4431547B2 (en) * 2006-04-14 2010-03-17 富士フイルム株式会社 Image display control device, control method therefor, and control program therefor
CN201042038Y (en) * 2006-09-08 2008-03-26 郭鹏飞 A video advertisement display screen for receiver playing real time roles
JP4596280B2 (en) * 2007-12-14 2010-12-08 ソニー株式会社 Video output device and method for forcibly displaying menu screen of video output device
CN101472063A (en) * 2007-12-28 2009-07-01 希姆通信息技术(上海)有限公司 Method for capturing smiling face by mobile phone camera

Also Published As

Publication number Publication date
CN101945216A (en) 2011-01-12
CN101945216B (en) 2016-04-13
CN105721752A (en) 2016-06-29
CN105721752B (en) 2019-04-05
JP2011015279A (en) 2011-01-20

Similar Documents

Publication Publication Date Title
JP5457092B2 (en) Digital camera and composite image display method of digital camera
KR101000605B1 (en) Image pickup apparatus, image recording apparatus and image recording method
JP6267961B2 (en) Image providing method and transmitting apparatus
KR101905648B1 (en) Apparatus and method for shooting a moving picture of camera device
JP2010074323A (en) Recording apparatus and method, and recording and playback apparatus and method
JP6319491B2 (en) Imaging apparatus and control method
JP6583458B2 (en) Imaging apparatus and control method
JP2013118518A (en) Imaging apparatus
JP2007226606A (en) Imaging apparatus, image output method, reproduction apparatus, program, and storage medium
JP5963921B2 (en) Digital camera and composite image display method of camera
JP5654148B2 (en) Digital camera and composite image display method of digital camera
JP5774731B2 (en) Digital camera and composite image display method of digital camera
JP2009100316A (en) Photography equipment
JP6119447B2 (en) Imaging system and control method
JP6583457B2 (en) Imaging apparatus and control method
JP5024331B2 (en) Video camera and information transmission method
JP5657223B2 (en) Imaging apparatus, image reproduction system, and image reproduction method
JP2008199662A (en) Imaging apparatus, image recorder and image recording method
JP6332963B2 (en) Image processing apparatus and image processing apparatus control method
JP4465655B2 (en) Video camera and information transmission method
JP4790670B2 (en) Image display system and image display method
JP2000278570A (en) Image pickup device and image transmission method
JP2010259099A (en) Imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120703

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140109

R150 Certificate of patent or registration of utility model

Ref document number: 5457092

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350