[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2015126516A - Image processing apparatus, image processing method, program - Google Patents

Image processing apparatus, image processing method, program Download PDF

Info

Publication number
JP2015126516A
JP2015126516A JP2013272049A JP2013272049A JP2015126516A JP 2015126516 A JP2015126516 A JP 2015126516A JP 2013272049 A JP2013272049 A JP 2013272049A JP 2013272049 A JP2013272049 A JP 2013272049A JP 2015126516 A JP2015126516 A JP 2015126516A
Authority
JP
Japan
Prior art keywords
image
moving image
image file
displayed
still image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013272049A
Other languages
Japanese (ja)
Other versions
JP6249771B2 (en
JP2015126516A5 (en
Inventor
中瀬 雄一
Yuichi Nakase
雄一 中瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013272049A priority Critical patent/JP6249771B2/en
Publication of JP2015126516A publication Critical patent/JP2015126516A/en
Publication of JP2015126516A5 publication Critical patent/JP2015126516A5/ja
Application granted granted Critical
Publication of JP6249771B2 publication Critical patent/JP6249771B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus in which existence of a video related to a displayed still image can be confirmed.SOLUTION: To display an image for instructing playback of a video file related to a still image file corresponding to an image under display, when the file size of a video file related to a still image file corresponding to an image being displayed in a display matches the file size of a video file stored in the reference information contained in the video file.

Description

本発明は、画像処理装置、画像処理方法、プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

従来、画像処理置として、被写体を撮像して得られた画像データを静止画または動画として記録媒体に記録するデジタルカメラが知られている。これらの撮像装置の中には、たとえば特許文献1のように、静止画と動画を撮影し、同時に記録されたシーンを再生する撮像装置が提案されてきている。   2. Description of the Related Art Conventionally, as an image processing apparatus, a digital camera that records image data obtained by imaging a subject on a recording medium as a still image or a moving image is known. Among these imaging apparatuses, for example, as disclosed in Patent Document 1, an imaging apparatus that captures a still image and a moving image and reproduces a recorded scene at the same time has been proposed.

特開平10−224727号公報Japanese Patent Laid-Open No. 10-224727

しかしながら、特許文献1においては、動画のストリーム中に関連する静止画の情報を記録する方式であり、関連付けられた静止画を特定するために、動画のストリームを検索しなければならないため、動画が長いほど処理時間が長くなってしまうという課題があった。   However, Patent Document 1 is a method of recording related still image information in a moving image stream, and the moving image stream must be searched to identify the associated still image. The longer the processing time, the longer the processing time.

そこで、本発明は、表示された静止画に関連する動画の存在を確認することができる画像処理装置を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus capable of confirming the presence of a moving image related to a displayed still image.

このような目的を達成するために、本発明の画像処理装置は、記録媒体に記録された動画ファイルおよび静止画ファイルを再生する再生手段と、前記再生手段により再生された静止画ファイルに対応する画像を表示部に表示させる表示制御手段と、前記表示部に表示中の画像に対応する静止画ファイルに関連する動画ファイルの前記記録媒体におけるファイルサイズと、前記動画ファイルに含まれる参照情報に格納された前記動画ファイルのファイルサイズとが一致する場合に、前記表示中の画像に対応する静止画ファイルに関連する動画ファイルの再生を指示するための画像を表示するように前記表示制御手段を制御する制御手段とを有することを特徴とする。   In order to achieve such an object, the image processing apparatus of the present invention corresponds to a reproduction unit that reproduces a moving image file and a still image file recorded on a recording medium, and a still image file reproduced by the reproduction unit. Stored in display control means for displaying an image on a display unit, file size in the recording medium of a moving image file related to a still image file corresponding to the image being displayed on the display unit, and reference information included in the moving image file The display control unit is controlled to display an image for instructing reproduction of the moving image file related to the still image file corresponding to the image being displayed when the file size of the moving image file matches And a control means.

本発明によれば、表示された静止画に関連する動画の存在を確認することができる。   According to the present invention, the presence of a moving image related to a displayed still image can be confirmed.

本実施例の撮像装置の構成を示す図。1 is a diagram illustrating a configuration of an imaging apparatus according to an embodiment. 本実施例の動画静止画撮影モードの動作を示す図。The figure which shows operation | movement in the moving image still image shooting mode of a present Example. 本実施例の動画静止画撮影モードの動作を示す図。The figure which shows operation | movement in the moving image still image shooting mode of a present Example. 本実施例のストップモーション動画の表示例を示す図。The figure which shows the example of a display of the stop motion moving image of a present Example. 本実施例の動画静止画撮影モードで記録される情報を示す図。The figure which shows the information recorded in the moving image still image shooting mode of a present Example. 本実施例の動画の付加情報を示す図。The figure which shows the additional information of the moving image of a present Example. 本実施例の再生モードの動作を示す図。The figure which shows operation | movement of the reproduction | regeneration mode of a present Example. 本実施例の表示アイコンの例を示す図。The figure which shows the example of the display icon of a present Example.

以下、図面を参照して本発明の実施例を詳細に説明するが、この発明は以下の実施の形態に限定されない。なお、以下の実施の形態は特許請求の範囲に係る発明を限定するものでなく、また実施の形態で説明されている特徴の組み合わせの全てが発明の解決手段に必須のものとは限らない。   Hereinafter, examples of the present invention will be described in detail with reference to the drawings. However, the present invention is not limited to the following embodiments. The following embodiments do not limit the invention according to the claims, and all combinations of features described in the embodiments are not necessarily essential to the solution means of the invention.

なお、本実施例において説明される各機能ブロックは必ずしも個別のハードウェアである必要はない。すなわち、例えばいくつかの機能ブロックの機能は、1つのハードウェアにより実行されても良い。また、いくつかのハードウェアの連係動作により1つの機能ブロックの機能または、複数の機能ブロックの機能が実行されても良い。また、各機能ブロックの機能は、CPUがメモリ上に展開したコンピュータプログラムにより実行されても良い。   Note that each functional block described in the present embodiment is not necessarily separate hardware. That is, for example, the functions of some functional blocks may be executed by one piece of hardware. In addition, the function of one functional block or the functions of a plurality of functional blocks may be executed by some hardware linked operations. Further, the function of each functional block may be executed by a computer program developed on the memory by the CPU.

(実施例1)
本実施例では、音声処理装置の例として撮像装置を説明するが、動画と動画に関連付けられた静止画を再生することができる装置であればどのような装置でも良い。たとえば、携帯電話、スマートフォン、タブレット型情報端末、ノート型情報端末、コンピュータ等であってもよい。
Example 1
In this embodiment, an imaging apparatus will be described as an example of a sound processing apparatus. However, any apparatus may be used as long as it can reproduce a moving image and a still image associated with the moving image. For example, a mobile phone, a smartphone, a tablet information terminal, a notebook information terminal, a computer, or the like may be used.

本実施例の撮像装置は、記録媒体に記録された動画と静止画を再生することができ、動画に関連付けられた静止画を再生する場合に、その静止画に関連付けられた動画があることを示すことができる。また、動画が編集され、関連する動画の存在が不確かな状態になった場合には、表示された静止画に関連する動画があることを示す表示を行わないようにすることができる。   The imaging apparatus according to the present embodiment can reproduce the moving image and the still image recorded on the recording medium, and when reproducing the still image associated with the moving image, there is a moving image associated with the still image. Can show. In addition, when a moving image is edited and the existence of a related moving image becomes uncertain, it is possible to prevent display indicating that there is a moving image related to the displayed still image.

このような構成とすることで、本実施例の撮像装置は、表示された静止画に関連する動画の存在を容易に確認することができる。また、動画が編集されてしまった場合には、不確かな関連付け情報を表示しないようにして誤再生を防止することができる。以下、このような撮像装置について説明する。   With such a configuration, the imaging apparatus according to the present embodiment can easily confirm the presence of a moving image related to the displayed still image. Further, when a moving image has been edited, it is possible to prevent erroneous reproduction by not displaying uncertain association information. Hereinafter, such an imaging apparatus will be described.

<全体構成>
まず、図1を用いて、本実施例の撮像装置100の構成を説明する。
<Overall configuration>
First, the configuration of the imaging apparatus 100 of the present embodiment will be described with reference to FIG.

本実施例の撮像装置100は、図1に示すように、CPU101と、RAM102と、ROM103と、操作部104とを有する。また、撮像装置100は、第1撮像部110と、画像処理部111と、第2撮像部112と、集音部120と、音声処理部121とを有する。また、撮像装置100は、表示部140と、表示制御部141と、記録再生部150と、記録媒体151と、姿勢検出部160とを有する。なお、CPUは、Central Processing Unitの略称である。RAMは、Random Access Memoryの略称である。ROMは、Read Only Memoryの略称である。   As illustrated in FIG. 1, the imaging apparatus 100 according to the present exemplary embodiment includes a CPU 101, a RAM 102, a ROM 103, and an operation unit 104. In addition, the imaging apparatus 100 includes a first imaging unit 110, an image processing unit 111, a second imaging unit 112, a sound collection unit 120, and an audio processing unit 121. In addition, the imaging apparatus 100 includes a display unit 140, a display control unit 141, a recording / playback unit 150, a recording medium 151, and an attitude detection unit 160. CPU is an abbreviation for Central Processing Unit. RAM is an abbreviation for Random Access Memory. ROM is an abbreviation for Read Only Memory.

本実施例の撮像装置100において、CPU101は、RAM102をワークメモリとしてROM103に記録された各種プログラムをRAM102に展開し、プログラムに応じて撮像装置100の各ブロックを制御する。操作部104は、例えば、電源ボタン、記録ボタン、ズーム調整ボタン、オートフォーカスボタン、メニュー表示ボタン、モード切替スイッチ、決定ボタン等の各種操作を入力するスイッチ類を有する。また、カーソルキー、ポインティングデバイス、タッチパネル、ダイヤル等のどのようなタイプの操作子であってもよい。操作部104は、ユーザによりこれらのキーやボタン、タッチパネルが操作されるとCPU101に操作信号を送信する。操作部104の各操作部材は、表示部に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部に表示される。利用者は、表示部に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。なお、操作部104は、表示部に対する接触を検知可能なタッチパネルであってもよい。タッチパネルは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。   In the imaging apparatus 100 according to the present exemplary embodiment, the CPU 101 develops various programs recorded in the ROM 103 using the RAM 102 as a work memory, and controls each block of the imaging apparatus 100 according to the program. The operation unit 104 includes switches for inputting various operations such as a power button, a record button, a zoom adjustment button, an autofocus button, a menu display button, a mode switch, and a determination button. Further, any type of operation element such as a cursor key, a pointing device, a touch panel, and a dial may be used. The operation unit 104 transmits an operation signal to the CPU 101 when these keys, buttons, and touch panel are operated by the user. Each operation member of the operation unit 104 is appropriately assigned a function for each scene by selecting and operating various function icons displayed on the display unit, and functions as various function buttons. Examples of the function buttons include an end button, a return button, an image advance button, a jump button, a narrowing button, and an attribute change button. For example, when a menu button is pressed, various setting menu screens are displayed on the display unit. The user can make various settings intuitively using the menu screen displayed on the display unit, and the four-way buttons and the SET button. Note that the operation unit 104 may be a touch panel that can detect contact with the display unit. The touch panel may be any of various types of touch panels such as a resistive film method, a capacitance method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method. .

第1撮像部110は、第2撮像部112は、レンズにより取り込まれた被写体の光学像を、絞りにより光量を制御して、CCDセンサやCMOSセンサ等の撮像素子により画像信号に変換する。また第1撮像部110は、第2撮像部112は、得られたアナログ画像信号をデジタル画像信号に変換して一時的にRAM102に記憶する。画像処理部111は、記録時にはRAM102に記憶された画像データを処理し、再生時には、後述の記録媒体151から読みだされた画像データを処理する。画像処理部111は、画像データのホワイトバランス調整、ゲイン調整、色強調処理等様々な処理を行う。画像処理部111は処理した画像データを、表示制御部141に送信したり、記録再生部150や通信部に送信したりする。また、画像処理部111は、H.264/AVCやMotionJPEG2000、H.265等の動画圧縮技術を用いて画像を動画として圧縮したり、JPEGやJPEG2000等の静止画圧縮技術を用いて画像を静止画として圧縮したりすることもできる。圧縮形式はこれらの形式によらず他の方式を用いてもよい。   In the first imaging unit 110, the second imaging unit 112 converts the optical image of the subject captured by the lens into an image signal using an imaging element such as a CCD sensor or a CMOS sensor by controlling the amount of light using a diaphragm. In the first imaging unit 110, the second imaging unit 112 converts the obtained analog image signal into a digital image signal and temporarily stores it in the RAM 102. The image processing unit 111 processes image data stored in the RAM 102 during recording, and processes image data read from a recording medium 151 (to be described later) during reproduction. The image processing unit 111 performs various processes such as white balance adjustment, gain adjustment, and color enhancement processing of image data. The image processing unit 111 transmits the processed image data to the display control unit 141 or to the recording / playback unit 150 or the communication unit. In addition, the image processing unit 111 is an H.264. H.264 / AVC, Motion JPEG2000, H.264, etc. An image can be compressed as a moving image using a moving image compression technique such as H.265, or an image can be compressed as a still image using a still image compression technique such as JPEG or JPEG 2000. As the compression format, other methods may be used regardless of these formats.

音声処理部121は、記録時には、集音部120により集音して得られた音声データを処理し、再生時には、後述の記録媒体151から読みだされた圧縮または非圧縮の音声データを処理する。たとえば、音声データのレベル調整処理、圧縮された音声データの伸張処理、音声データの圧縮処理等を行う。音声処理部121は、処理した音声データを、記録再生部150や通信部に送信したり、再生時にはスピーカに送信したりする。なお、集音部120は、たとえば、撮像装置100のハウジング内に内蔵された複数の無指向性の音声を集音するマイクである。また、音声処理部121では音声圧縮方式として、たとえば、AC3、AAC等の公知の一般的な音声圧縮方式を用いる。   The audio processing unit 121 processes audio data obtained by collecting sound by the sound collecting unit 120 during recording, and processes compressed or uncompressed audio data read from a recording medium 151 described later during reproduction. . For example, audio data level adjustment processing, compressed audio data decompression processing, audio data compression processing, and the like are performed. The audio processing unit 121 transmits the processed audio data to the recording / reproducing unit 150 and the communication unit, or to the speaker during reproduction. Note that the sound collection unit 120 is, for example, a microphone that collects a plurality of omnidirectional sounds built in the housing of the imaging apparatus 100. Also, the audio processing unit 121 uses a known general audio compression method such as AC3, AAC, or the like as the audio compression method.

表示部140は、例えば、液晶表示デバイス、または有機EL表示デバイスなどからなり、表示制御部141の制御により画像を表示する。表示部140は、LEDディスプレイなど、ユーザに画像を提供することができればどのようなものであっても良い。表示制御部141では、画像処理部111により処理された画像データに基づいて、表示部140に画像を表示する。また、表示制御部141は、表示部140に表示するデジタル画像信号に基づく映像信号に対し、マトリクス変換、ブライト調整、コントラスト調整、ガンマ調整、クロマゲイン調整、シャープネス調整等の画像信号処理を行ってもよい。   The display unit 140 includes, for example, a liquid crystal display device or an organic EL display device, and displays an image under the control of the display control unit 141. The display unit 140 may be anything such as an LED display as long as it can provide an image to the user. The display control unit 141 displays an image on the display unit 140 based on the image data processed by the image processing unit 111. Further, the display control unit 141 may perform image signal processing such as matrix conversion, brightness adjustment, contrast adjustment, gamma adjustment, chroma gain adjustment, and sharpness adjustment on the video signal based on the digital image signal displayed on the display unit 140. Good.

記録再生部150は、記録時においては、画像処理部111により処理された画像データや音声データを記録媒体151に記録し、再生時においては、記録媒体151に記録された画像データや音声データを再生する。記録再生部150は、記録時においては、画像データや音声データとともに、撮影日や、圧縮に関する情報、撮像部110の設定等の各種情報を記録媒体151に書き込む。なお、記録再生部150は、画像データや音声データを記録媒体151に記録する際は、たとえばFATやexFAT等のファイルフォーマットに適合した形でファイルとして記録媒体に記録する。また、記録媒体151は、撮像装置に内蔵された記録媒体でも、取外し可能な記録媒体でもよい。例えば、ハードディスク、光ディスク、光磁気ディスク、CD−R、DVD−R、磁気テープ、不揮発性の半導体メモリ、フラッシュメモリ、などのあらゆる方式の記録媒体を含む。取り外し可能な記録媒体を用いる場合には、記録再生部150は、それらの取り外し可能な記録媒体を装着、排出するための機構を含む。   The recording / reproducing unit 150 records the image data and audio data processed by the image processing unit 111 on the recording medium 151 at the time of recording, and the image data and audio data recorded on the recording medium 151 at the time of reproduction. Reproduce. At the time of recording, the recording / reproducing unit 150 writes various types of information such as the shooting date, information related to compression, and settings of the imaging unit 110 to the recording medium 151 together with image data and audio data. The recording / reproducing unit 150 records image data and audio data on the recording medium 151 as a file in a form suitable for a file format such as FAT or exFAT, for example. Further, the recording medium 151 may be a recording medium built in the imaging apparatus or a removable recording medium. For example, the recording medium includes all types of recording media such as a hard disk, an optical disk, a magneto-optical disk, a CD-R, a DVD-R, a magnetic tape, a nonvolatile semiconductor memory, and a flash memory. When using removable recording media, the recording / reproducing unit 150 includes a mechanism for loading and unloading the removable recording media.

姿勢検出部160は、撮像装置100の姿勢を検出するものであって、たとえば、角度センサや加速度センサなどである。本実施例の姿勢検出部160は、撮像装置100の姿勢が、正位置であるか縦位置であるかを検出する。例えば撮像装置100の第1撮像部110の光軸を中心とした回転姿勢角度(0度、90度、180度、270度)を検出することができる。ここで、0度はいわゆる正位置(撮像装置100の上面が上空方向を向いている状態)であり、180度は逆位置(撮像装置100の上面が地面方向を向いている状態)である。90度、270度とはいわゆる縦位置(撮像装置100の左右面のいずれかが地面方向を向いている状態)である。   The posture detection unit 160 detects the posture of the imaging apparatus 100 and is, for example, an angle sensor or an acceleration sensor. The posture detection unit 160 of the present embodiment detects whether the posture of the imaging device 100 is the normal position or the vertical position. For example, a rotation attitude angle (0 degree, 90 degrees, 180 degrees, 270 degrees) about the optical axis of the first imaging unit 110 of the imaging apparatus 100 can be detected. Here, 0 degrees is a so-called normal position (a state in which the upper surface of the imaging apparatus 100 faces the sky direction), and 180 degrees is a reverse position (a state in which the upper surface of the imaging apparatus 100 faces the ground direction). 90 degrees and 270 degrees are so-called vertical positions (a state in which either of the left and right surfaces of the imaging apparatus 100 faces the ground).

なお、本実施例の第1撮像部110(第1の撮像部)、第2撮像部112(第2の撮像部)はそれぞれ、異なる方向の被写体を撮像するものである。具体的には、第2の撮像部112は、撮影者(いわゆるカメラマン)を撮影するためのサブカメラであり、第1撮像部110は、撮影者が撮影しようとしている被撮影者(いわゆる被写体)を撮影するためのメインカメラである。したがって、たとえば、第1撮像部110と、第2撮像部112は、逆方向を撮影するものであるが、必ずしも逆方向でなくともよい。   Note that the first imaging unit 110 (first imaging unit) and the second imaging unit 112 (second imaging unit) of the present embodiment each capture subjects in different directions. Specifically, the second imaging unit 112 is a sub-camera for photographing a photographer (so-called cameraman), and the first imaging unit 110 is a subject (so-called subject) that the photographer intends to photograph. This is the main camera. Therefore, for example, the first image capturing unit 110 and the second image capturing unit 112 capture images in the reverse direction, but may not necessarily be in the reverse direction.

ここで、画像処理部111、音声処理部121、表示制御部141、記録再生部150は、それぞれ、前述の各機能を実行するプログラムを搭載したマイクロコンピュータであってもよい。また、CPU101がROM103に記録された前述の処理を実行する為のプログラムをRAM102に展開して実行するようにしてもよい。   Here, each of the image processing unit 111, the audio processing unit 121, the display control unit 141, and the recording / reproducing unit 150 may be a microcomputer equipped with a program for executing the above-described functions. Further, the program for executing the above-described processing recorded in the ROM 103 by the CPU 101 may be loaded into the RAM 102 and executed.

<撮像装置100の動作>
続いて、本実施例の撮像装置100の動作について説明する。
<Operation of Imaging Device 100>
Subsequently, the operation of the imaging apparatus 100 of the present embodiment will be described.

本実施例の撮像装置100は、「静止画撮影モード」、「動画撮影モード」、「再生モード」のほかに、「動画静止画撮影モード」を有する。   The imaging apparatus 100 according to the present embodiment has a “moving image still image shooting mode” in addition to the “still image shooting mode”, the “moving image shooting mode”, and the “reproduction mode”.

各モードにおいて、CPU101は、撮像装置100の各ブロックを制御して以下の動作を行わせる。   In each mode, the CPU 101 controls each block of the imaging apparatus 100 to perform the following operation.

「静止画撮影モード」、「動画撮影モード」では、撮影の指示が入力されるまでの間、第1撮像部110により得られた画像のみまたは、第1撮像部110により得られた画像と第2撮像部112により得られた画像を合成した画像を表示部140に表示させる。すなわち、各撮像部により得られた画像を画像処理部111で処理し、表示部140に表示させるように表示制御部141を制御する。そして、撮影の指示が入力されると、画像処理部111に、各撮像部により得られた画像を動画または静止画として圧縮させ、圧縮した画像を順次記録媒体151に記録するように記録再生部150を制御する。「静止画撮影モード」の場合は撮影の指示に対応するタイミングで各撮像部により得られた画像を1枚または複数枚をたとえばJPEGを用いて圧縮するように画像処理部111を制御する。そして、圧縮された静止画データを記録媒体151に静止画ファイルとして記録するように記録再生部150を制御する。一方「動画撮影モード」においては、撮影の指示に対応するタイミングで各撮像部により得られた画像から順次得られる画像をフレーム画像とする動画をたとえばH.265を用いて圧縮するように画像処理部111を制御する。そして、圧縮された動画データを記録媒体151に動画ファイルとして記録するように記録再生部150を制御する。なお、「動画撮影モード」においては、撮影終了の指示が入力されるまでこの動作を継続する。また、「静止画撮影モード」、「動画撮影モード」において、静止画ファイル、動画ファイルには、各モードで撮影された画像に基づくサムネイル画像(静止画データ)が付加されて記録媒体151に記録される。   In the “still image shooting mode” and “moving image shooting mode”, only the image obtained by the first imaging unit 110 or the image obtained by the first imaging unit 110 and the first image until the shooting instruction is input. 2 The image obtained by combining the images obtained by the imaging unit 112 is displayed on the display unit 140. That is, an image obtained by each imaging unit is processed by the image processing unit 111, and the display control unit 141 is controlled to be displayed on the display unit 140. When a shooting instruction is input, the recording / reproducing unit 111 causes the image processing unit 111 to compress the image obtained by each imaging unit as a moving image or a still image, and sequentially record the compressed image on the recording medium 151. 150 is controlled. In the “still image shooting mode”, the image processing unit 111 is controlled so that one or a plurality of images obtained by each imaging unit are compressed using, for example, JPEG at a timing corresponding to a shooting instruction. Then, the recording / reproducing unit 150 is controlled to record the compressed still image data on the recording medium 151 as a still image file. On the other hand, in the “moving image shooting mode”, a moving image in which images sequentially obtained from images obtained by the respective imaging units at a timing corresponding to a shooting instruction are frame images is used, for example. The image processing unit 111 is controlled to perform compression using H.265. Then, the recording / playback unit 150 is controlled to record the compressed moving image data on the recording medium 151 as a moving image file. In the “moving image shooting mode”, this operation is continued until an instruction to end shooting is input. In the “still image shooting mode” and “moving image shooting mode”, a thumbnail image (still image data) based on the image shot in each mode is added to the still image file and the movie file and recorded on the recording medium 151. Is done.

「動画静止画撮影モード」では、静止画記録の指示が入力されたときに、静止画撮影、静止画記録を行うとともに、静止画記録の指示が入力される直前の4秒間の動画データを記録媒体に記録する。そして、同じ日に、「動画静止画撮影モード」で、複数回の静止画記録の指示が入力された場合には、静止画記録の指示が入力される直前の4秒間の動画データを一つの動画ファイルに追記して記録する。このようにすることで、1日分の静止画撮影直前の動画データを一つの動画ファイルに格納し、閲覧性を向上させることができる。「動画静止画撮影モード」では、CPU101は、撮影の指示が入力されるまでの間、第1撮像部110により得られた画像のみまたは、第1撮像部110により得られた画像と第2撮像部112により得られた画像を合成した画像を表示部140に表示させる。すなわち、各撮像部により得られた画像を画像処理部111で処理し、表示部140に表示させるように表示制御部141を制御する。また、このとき、画像処理部111は、第1撮像部110により得られた画像のみまたは、第1撮像部110により得られた画像と第2撮像部112により得られた画像を合成した画像を順次動画データとして圧縮し、RAM102に一時的に記憶する。CPU101は、RAM102には、最新の4秒分の圧縮済みの動画データが常に保持されるようにRAM102の情報を管理する。たとえば最新の4秒以外の動画データは破棄してもよい。次に、静止画記録の指示が入力されると、指示に対応するタイミングで各撮像部により得られた画像を1枚または複数枚をたとえばJPEGを用いて圧縮するように画像処理部111を制御する。そして静止画として圧縮された静止画データを記録媒体151に記録するように記録再生部150を制御する。一方、静止画記録の指示に応じて、RAM102に記憶されている最新の4秒の圧縮済みの動画データについても記録媒体151に記録するように記録再生部150を制御する。また静止画記録の指示により得られた画像を動画(ストップモーション)としても圧縮するように画像処理部111を制御し、最新の4秒の動画データの後に再生されるように記録媒体151に記録する。これにより、記録再生部150は、記録媒体に記録されている最新の4秒の動画データと同じ動画ファイルに静止画記録の指示により得られた画像の動画データが含まれる。   In “Movie Still Image Shooting Mode”, when a still image recording instruction is input, still image shooting and still image recording are performed, and moving image data for 4 seconds immediately before the still image recording instruction is input is recorded. Record on media. On the same day, when a plurality of still image recording instructions are input in the “moving picture still image shooting mode”, the moving image data for 4 seconds immediately before the input of the still image recording instruction is stored as one. Add to the movie file and record. By doing in this way, the moving image data just before the still image photography for 1 day can be stored in one moving image file, and browsing property can be improved. In the “moving picture still image shooting mode”, the CPU 101 performs only the image obtained by the first imaging unit 110 or the image obtained by the first imaging unit 110 and the second imaging until a shooting instruction is input. An image obtained by combining the images obtained by the unit 112 is displayed on the display unit 140. That is, an image obtained by each imaging unit is processed by the image processing unit 111, and the display control unit 141 is controlled to be displayed on the display unit 140. At this time, the image processing unit 111 combines only the image obtained by the first imaging unit 110 or an image obtained by combining the image obtained by the first imaging unit 110 and the image obtained by the second imaging unit 112. It is sequentially compressed as moving image data and temporarily stored in the RAM 102. The CPU 101 manages information in the RAM 102 so that the latest compressed video data for 4 seconds is always held in the RAM 102. For example, moving image data other than the latest 4 seconds may be discarded. Next, when a still image recording instruction is input, the image processing unit 111 is controlled to compress one or a plurality of images obtained by each imaging unit at a timing corresponding to the instruction using, for example, JPEG. To do. Then, the recording / reproducing unit 150 is controlled so as to record still image data compressed as a still image on the recording medium 151. On the other hand, in response to a still image recording instruction, the recording / reproducing unit 150 is controlled so that the latest 4-second compressed moving image data stored in the RAM 102 is also recorded on the recording medium 151. In addition, the image processing unit 111 is controlled so as to compress the image obtained by the still image recording instruction as a moving image (stop motion), and recorded on the recording medium 151 so as to be reproduced after the latest 4-second moving image data. To do. Thus, the recording / playback unit 150 includes the moving image data of the image obtained by the still image recording instruction in the same moving image file as the latest 4-second moving image data recorded on the recording medium.

「再生モード」では、記録媒体151に記録されている動画ファイルまたは静止画ファイルのファイルリスト及びサムネイル画像を読み出すように記録再生部150を制御する。そして記録再生部150により再生された各ファイルのサムネイル画像を画像処理部111で伸張させ、伸張させたサムネイル画像を表示部140に表示するように表示制御部141を制御する。そして、CPU101は、ユーザが操作部104を操作することで選択したサムネイル画像に対応する静止画ファイルまたは動画ファイルを画像処理部111に伸張させ、得られた画像を表示部140に表示するように表示制御部141を制御する。   In the “playback mode”, the recording / playback unit 150 is controlled to read the file list and thumbnail images of the moving image file or still image file recorded on the recording medium 151. Then, the display control unit 141 is controlled so that the thumbnail image of each file reproduced by the recording / reproducing unit 150 is expanded by the image processing unit 111 and the expanded thumbnail image is displayed on the display unit 140. Then, the CPU 101 expands the still image file or the moving image file corresponding to the thumbnail image selected by the user operating the operation unit 104 to the image processing unit 111, and displays the obtained image on the display unit 140. The display control unit 141 is controlled.

ここで、本実施例の「動画静止画撮影モード」について、図2を用いて詳細に説明する。図2は、「動画静止画撮影モード」における撮像装置100の動作を説明するためのフローチャートである。図2の処理はCPU101が撮像装置100の各部ブロックを制御することにより実行される処理である。   Here, the “moving image still image shooting mode” of the present embodiment will be described in detail with reference to FIG. FIG. 2 is a flowchart for explaining the operation of the imaging apparatus 100 in the “moving picture still image shooting mode”. The process of FIG. 2 is a process executed by the CPU 101 controlling each block of the imaging apparatus 100.

(S201)
まず、CPU101は、撮像装置100の各ブロックの動作状態を取得する。つまり静止画記録の指示が入力される前の撮像装置100の各ブロックの動作状態を取得する。たとえば、姿勢検出部160により検出された撮像装置100の姿勢を取得する。他には、第1撮像部110におけるフォーカス動作に関する情報、ズーム動作に関する情報を取得する。フォーカス動作に関する情報とは、第1撮像部110のフォーカスレンズが駆動中であるか否かを示す情報であり、ズーム動作に関する情報とは、第1撮像部110のフォーカスレンズが駆動中であるか否かを示す情報である。これらの情報はCPU101により撮像部110から取得してもよいし、CPU101自身が撮像部110の駆動を制御した履歴を保持していてもよい。また、このとき、第1撮像部110により得られた画像信号を画像処理部111に処理させている。CPU101は、得られた画像を解析し、画像の中に人物または顔といった特徴画像が含まれているか否かをパターンマッチングにより判定し、さらに、顔が検出された場合には「笑顔度」を判定するように画像処理部111を制御する。なお、「笑顔度」は、顔画像中の目、口に該当する部分の画像を解析し目に当たる画像を結んだ線の方線と、口に該当する部分の画像の端部と中央部を結んだ線のなす角度が小さいほど「笑顔度」高いと判定し、なす角度が大きいほど「笑顔度」が低いと判定する。「笑顔度」の判定方法はこの方法に限定されない。CPU101は、このようにして取得した情報を、たとえば1秒単位、0.5秒単位で、所定時間分保持する。これらの情報は後述する処理により、静止画記録の指示に対応する静止画データを含む静止画ファイルに付加情報として記録される。この付加情報は、たとえば、図6に示すようなテーブルデータとして記録される。
(S201)
First, the CPU 101 acquires the operation state of each block of the imaging device 100. That is, the operation state of each block of the imaging apparatus 100 before the still image recording instruction is input is acquired. For example, the posture of the imaging device 100 detected by the posture detection unit 160 is acquired. In addition, information on the focus operation in the first imaging unit 110 and information on the zoom operation are acquired. The information regarding the focus operation is information indicating whether or not the focus lens of the first imaging unit 110 is being driven. The information regarding the zoom operation is whether the focus lens of the first imaging unit 110 is being driven. This is information indicating whether or not. These pieces of information may be acquired from the imaging unit 110 by the CPU 101, or may hold a history of controlling the driving of the imaging unit 110 by the CPU 101 itself. At this time, the image signal obtained by the first imaging unit 110 is processed by the image processing unit 111. The CPU 101 analyzes the obtained image, determines whether or not a feature image such as a person or a face is included in the image, and further determines the “smile level” when a face is detected. The image processing unit 111 is controlled to make the determination. Note that the “degree of smile” is calculated by analyzing the image of the part corresponding to the eyes and mouth in the face image, the line of the line connecting the images corresponding to the eyes, and the edge and center of the image corresponding to the mouth. The smaller the angle formed by the connected lines, the higher the “smile level”, and the larger the angle formed, the lower the “smile level”. The determination method of “smile level” is not limited to this method. The CPU 101 holds the information acquired in this way for a predetermined time, for example, in units of 1 second and 0.5 seconds. These pieces of information are recorded as additional information in a still image file including still image data corresponding to a still image recording instruction by a process described later. This additional information is recorded, for example, as table data as shown in FIG.

(S202)
次に、CPU101は、RAM102に記憶されている、第2撮像部112の設定情報を取得する。第2撮像部112の設定情報には、第2撮像部112の撮影が「有効」か「無効」かを示す情報や、第2撮像部112により取得された画像を、第1撮像部110により取得された画像に重畳して表示する際の「表示位置」や「表示サイズ」を示す情報が含まれる。
(S202)
Next, the CPU 101 acquires setting information of the second imaging unit 112 stored in the RAM 102. The setting information of the second imaging unit 112 includes information indicating whether the imaging of the second imaging unit 112 is “valid” or “invalid” and an image acquired by the second imaging unit 112 by the first imaging unit 110. Information indicating a “display position” and a “display size” when the image is displayed superimposed on the acquired image is included.

(S203)
次に、CPU101は、S202で取得した第2撮像部112の設定情報に基づいて、第2撮像部112の撮影が「有効」になっているか否かを判定する。
(S203)
Next, the CPU 101 determines whether or not the shooting of the second imaging unit 112 is “valid” based on the setting information of the second imaging unit 112 acquired in S202.

(S204)
S203で、第2撮像部112の撮影が「有効」になっている場合(S203でYes)、CPU101は、第1撮像部により得られた画像と第2撮像部により得られた画像とを合成した画像を生成するように画像処理部111を制御する。
(S204)
If the shooting of the second imaging unit 112 is “valid” in S203 (Yes in S203), the CPU 101 synthesizes the image obtained by the first imaging unit and the image obtained by the second imaging unit. The image processing unit 111 is controlled so as to generate the processed image.

(S205)
S203で、第2撮像部112の撮影が「有効」になっていない場合(S203でNo)、CPU101は、第1撮像部により得られた画像を生成するように画像処理部111を制御する。
(S205)
In S203, when the shooting of the second imaging unit 112 is not “valid” (No in S203), the CPU 101 controls the image processing unit 111 so as to generate an image obtained by the first imaging unit.

(S206)
S204、S205の後、CPU101は、生成した画像を動画データとして圧縮するように画像処理部111を制御する。これにより、S204またはS205により生成された画像をフレーム画像とする動画データが生成される。そして、CPU101は、圧縮された動画データをRAM102に一時的に記憶させる。なお、音声処理についても同様で、CPU101は、集音部120により得られた音声信号を、音声処理部121に処理させ、動画データと対応付けてRAM102に一時的に記憶させる。なお、このとき、CPU101は、S204またはS205により得られた画像のサイズ変更、ガンマ調整等をするように画像処理部111を制御し、得られた画像を表示部140に表示するように表示制御部141を制御する。これにより、静止画撮影指示が入力されるまでの間、各撮像部により得られた画像を動画データとして圧縮してRAM102にバッファするとともに、表示部140にその画像を表示することができる。
(S206)
After S204 and S205, the CPU 101 controls the image processing unit 111 to compress the generated image as moving image data. Thereby, moving image data in which the image generated in S204 or S205 is a frame image is generated. Then, the CPU 101 temporarily stores the compressed moving image data in the RAM 102. The same applies to the audio processing, and the CPU 101 causes the audio processing unit 121 to process the audio signal obtained by the sound collection unit 120 and temporarily stores the audio signal in the RAM 102 in association with the moving image data. At this time, the CPU 101 controls the image processing unit 111 to change the size of the image obtained in S204 or S205, adjust the gamma, and the like, and performs display control to display the obtained image on the display unit 140. The unit 141 is controlled. Thus, until a still image shooting instruction is input, an image obtained by each imaging unit can be compressed as moving image data and buffered in the RAM 102, and the image can be displayed on the display unit 140.

(S207)
次に、CPU101は、操作部104を介して、「動画静止画撮影モード」以外のモードへの変更または、電源オフ等の指示が入力されたかを判定する。
(S207)
Next, the CPU 101 determines whether an instruction to change to a mode other than the “moving image still image shooting mode” or to turn off the power is input via the operation unit 104.

(S208、S209)
S207で、モードの変更が入力された場合(S207でYes)、CPU101は、各撮像部により得られた画像を動画として圧縮する動作を停止するように画像処理部111を制御する。また、RAM102に記憶した動画データ及び音声データと撮像装置100の各ブロックの動作状態の情報とを消去し、「動画静止画撮影モード」の処理を終了する。
(S208, S209)
If a mode change is input in S207 (Yes in S207), the CPU 101 controls the image processing unit 111 to stop the operation of compressing the image obtained by each imaging unit as a moving image. Further, the moving image data and audio data stored in the RAM 102 and the information on the operation state of each block of the imaging apparatus 100 are deleted, and the processing of the “moving image still image shooting mode” is ended.

(S210)
S207で、モードの変更が入力されなかった場合(S207でNo)、CPU101は、撮像装置100の各ブロックの動作状態に変化があったか、または、第2撮像部112の設定情報に変化があったかを判定する。なお、撮像装置100の各ブロックの動作状態のうち一部の動作状態のみについて変化があったか判定を行ってもよいし、第2撮像部112の設定情報のうち一部の設定のみにについて変化があったかを判定してもよい。本実施例では、姿勢情報に変化があったか、および第2撮像部112の「有効」、「無効」かを示す情報に変化があったか、重畳して表示する際の「表示位置」や「表示サイズ」を示す情報に変化があったかを判定する。
(S210)
If no mode change is input in S207 (No in S207), the CPU 101 determines whether the operation state of each block of the imaging apparatus 100 has changed or whether the setting information of the second imaging unit 112 has changed. judge. Note that it may be determined whether there has been a change in only some of the operation states of the blocks of the imaging apparatus 100, or only some of the setting information in the second imaging unit 112 has changed. You may determine whether there was. In this embodiment, whether there is a change in the posture information, whether there is a change in the information indicating whether the second imaging unit 112 is “valid” or “invalid”, “display position” and “display size” It is determined whether there has been a change in the information indicating "."

(S211)
S210で、撮像装置100の各ブロックの動作状態に変化があったか、または、第2撮像部112の設定情報に変化があった場合(S210でYes)。CPU101は、RAM102に記憶した動画データ及び音声データと撮像装置100の各ブロックの動作状態の情報とを消去する。そして、処理をS201に戻す。例えば、姿勢検出部160により検出された撮像装置の姿勢情報が「0度」から「90度」に変化した場合にこのような動作を行う。また、第2撮像部112の設定を「有効」から「無効」に変更した場合にもこのような動作を行う。
(S211)
If the operation state of each block of the imaging apparatus 100 has changed in S210, or the setting information of the second imaging unit 112 has changed (Yes in S210). The CPU 101 erases the moving image data and audio data stored in the RAM 102 and the information on the operation state of each block of the imaging apparatus 100. Then, the process returns to S201. For example, such an operation is performed when the posture information of the imaging apparatus detected by the posture detection unit 160 changes from “0 degree” to “90 degrees”. Such an operation is also performed when the setting of the second imaging unit 112 is changed from “valid” to “invalid”.

(S212)
一方、S210で、撮像装置100の各ブロックの動作状態に変化がなく、第2撮像部112の設定情報にも変化がない場合(S210でNo)。CPU101は、操作部104のシャッターボタンのSW1がONになったかを判定する。なお、本実施例の撮像装置100のシャッターボタンは、一般的な撮像装置のシャッターボタンと同様に2段階スイッチになっている。シャッターボタンの半押し状態でSW1がONになり、シャッターボタンの全押し状態でSW2がONになる。すなわち、S212では、シャッターボタンが半押し状態になったか否かを判定する。ここで、操作部104のシャッターボタンのSW1がONになっていない場合(S212でNo)、処理をS201に戻す。本実施例ではシャッターボタンのように2段階スイッチになっている構成を例に示したが、このSW1、SW2は別々のボタンに割り当てられていてもよいし、タッチパネル上の異なるUIに対応するボタンに割り当てられていてもよい。
(S212)
On the other hand, when the operation state of each block of the imaging apparatus 100 is not changed in S210 and the setting information of the second imaging unit 112 is not changed (No in S210). The CPU 101 determines whether SW1 of the shutter button of the operation unit 104 is turned on. Note that the shutter button of the image pickup apparatus 100 of the present embodiment is a two-stage switch, like the shutter button of a general image pickup apparatus. SW1 is turned on when the shutter button is half-pressed, and SW2 is turned on when the shutter button is fully pressed. That is, in S212, it is determined whether or not the shutter button has been half-pressed. If the SW1 of the shutter button of the operation unit 104 is not ON (No in S212), the process returns to S201. In this embodiment, a configuration in which a two-stage switch is used like a shutter button is shown as an example. However, SW1 and SW2 may be assigned to different buttons, or buttons corresponding to different UIs on the touch panel. May be assigned.

(S213)
一方、操作部104のシャッターボタンのSW1がONになっている場合(S212でYes)、CPU101は、静止画撮影のための動作を第1撮像部110に実行させる。その処理は、たとえばオートフォーカス(AF)処理、自動露出調整(AE)処理、オートホワイトバランス(AW)処理、AF補助光の発光処理等である。なお、本実施例の撮像装置100は、SW1がONである場合には、S210の判定を行わず、たとえば撮像装置100の姿勢が変化したとしてもRAM102にバッファされた動画データ、音声データ、撮像装置100の各ブロックの動作状態の情報とを消去しない。
(S213)
On the other hand, when SW1 of the shutter button of the operation unit 104 is ON (Yes in S212), the CPU 101 causes the first imaging unit 110 to perform an operation for still image shooting. The processing includes, for example, autofocus (AF) processing, automatic exposure adjustment (AE) processing, auto white balance (AW) processing, AF auxiliary light emission processing, and the like. Note that when the SW1 is ON, the imaging apparatus 100 according to the present embodiment does not perform the determination of S210. For example, even if the attitude of the imaging apparatus 100 changes, moving image data, audio data, and imaging buffered in the RAM 102 The information on the operation state of each block of the apparatus 100 is not erased.

(S214)
次に、CPU101は、操作部104のシャッターボタンのSW2がONになったかを判定する。すなわち、S214では、シャッターボタンが全押し状態になったか否かを判定する。ここで、操作部104のシャッターボタンのSW1がONになっていない場合(S214でNo)、処理をS201に戻す。
(S214)
Next, the CPU 101 determines whether SW2 of the shutter button of the operation unit 104 has been turned on. That is, in S214, it is determined whether or not the shutter button has been fully pressed. If the SW1 of the shutter button of the operation unit 104 is not ON (No in S214), the process returns to S201.

(S215)
一方、操作部104のシャッターボタンのSW2がONになっている場合(S214でYes)、CPU101は、静止画用の画像を取得するように、第1撮像部110および/または第2撮像部112を制御する。そして、CPU101は、さらに、各撮像部により得られた画像を動画として圧縮する動作を停止するように画像処理部111を制御し、また表示部140の表示を一度ブラックアウトするように表示制御部141を制御する。
(S215)
On the other hand, when SW2 of the shutter button of the operation unit 104 is ON (Yes in S214), the CPU 101 acquires the first imaging unit 110 and / or the second imaging unit 112 so as to acquire a still image. To control. Then, the CPU 101 further controls the image processing unit 111 so as to stop the operation of compressing the image obtained by each imaging unit as a moving image, and the display control unit so as to black out the display of the display unit 140 once. 141 is controlled.

(S216)
次に、CPU101は、撮影後の処理を実行する。撮影後の処理については図3を用いて説明する。図3の処理はCPU101が撮像装置100の各部ブロックを制御することにより実行される処理である。
(S216)
Next, the CPU 101 executes processing after photographing. Processing after shooting will be described with reference to FIG. The process in FIG. 3 is a process executed by the CPU 101 controlling each block of the imaging apparatus 100.

(S301)
CPU101は、S215で各撮像部から取得した静止画用の画像を表示部140に表示するように表示制御部141を制御し、さらに、静止画データとして圧縮するように画像処理部111を制御する。そして、CPU101は、画像処理部11により生成された静止画データを記録媒体151に記録するように記録再生部150を制御する。なお、静止画データは静止画ファイルとして記録媒体151に記録される。なお、本実施例において、第1撮像部110、第2撮像部112のそれぞれにより得られた画像は、別々の静止画データとして圧縮するものとするが、これらを合成した状態で静止画データとして圧縮してもよい。
(S301)
The CPU 101 controls the display control unit 141 to display the still image acquired from each imaging unit in step S215 on the display unit 140, and further controls the image processing unit 111 to compress the still image data. . Then, the CPU 101 controls the recording / reproducing unit 150 to record the still image data generated by the image processing unit 11 on the recording medium 151. The still image data is recorded on the recording medium 151 as a still image file. In the present embodiment, the images obtained by the first imaging unit 110 and the second imaging unit 112 are compressed as separate still image data. However, these images are combined into still image data. You may compress.

(S302)
次に、CPU101は、RAM102に記憶されている動画データが、t0秒分以上の動画データであるか否かを判定する。
(S302)
Next, the CPU 101 determines whether the moving image data stored in the RAM 102 is moving image data for t0 seconds or more.

(S303)
RAM102に記憶されている動画データが、t0秒分以上の動画データである場合(S302でYes)。CPU101は、RAM102に記憶されている動画データと音声データを記録媒体151に記録するように記録再生部150を制御する。なお、動画データと音声データは動画ファイルとして記録媒体151に記録される。また、このとき、CPU101は、RAM102に記憶されていた図6に示す撮像装置100の各ブロックの動作状態を示す情報を対応する静止画ファイルのヘッダ部分に付加情報として格納する。これにより、記録媒体151に記録された動画データの撮影中の撮像装置100の各ブロックの動作状態が、対応する静止画ファイルの付加情報として記録媒体151に記録されることになる。
(S303)
When the moving image data stored in the RAM 102 is moving image data for t0 seconds or more (Yes in S302). The CPU 101 controls the recording / reproducing unit 150 to record the moving image data and audio data stored in the RAM 102 on the recording medium 151. Note that the moving image data and audio data are recorded on the recording medium 151 as a moving image file. At this time, the CPU 101 stores information indicating the operation state of each block of the imaging apparatus 100 shown in FIG. 6 stored in the RAM 102 as additional information in the header portion of the corresponding still image file. As a result, the operation state of each block of the imaging device 100 during shooting of the moving image data recorded on the recording medium 151 is recorded on the recording medium 151 as additional information of the corresponding still image file.

(S304)
一方、RAM102に記憶されている動画データが、t0秒分より少ない動画データである場合(S302でNo)。CPU101は、RAM102に記憶されている動画データと音声データ、および、撮像装置100の各ブロックの動作状態を示す情報をRAM102から消去する。
(S304)
On the other hand, when the moving image data stored in the RAM 102 is moving image data less than t0 seconds (No in S302). The CPU 101 erases the moving image data and audio data stored in the RAM 102 and information indicating the operation state of each block of the imaging apparatus 100 from the RAM 102.

(S305)
S303またはS304の処理の後、CPU101は、第2撮像部112の設定が「有効」であるか「無効」であるかを判定する。なお、本実施例の撮像装置100では、この後に生成する静止画記録の指示(SW2がON)に対応して第1撮像部110により得られた画像を動画として圧縮する際の生成方式がこの設定に応じて異なる。この動画はSW2がONになったことに応じて、第1撮像部110により得られた画像を所定フレーム連続して表示することができる動画であり、本実施例ではこの動画をストップモーションと呼ぶ。なお、本実施例においては、第2撮像部112により得られた画像についてはストップモーションとはせずに、第1撮像部110により得られた画像をプレビュー表示しているときに第2撮像部112により得られた画像を順次合成したものとする。第2撮像部112の設定が「有効」である場合には、ストップモーション動画を生成する。「無効」である場合には、SW2のONになる前にRAM102に記憶された動画データがt0以上であり、ストップモーション設定が有効になっている場合には、ストップモーション動画データを生成する。一方、「無効」であった場合、SW2のONになる前にRAM102に記憶された動画データがt0未満であったり、ストップモーション設定が無効になっていたりする場合には、ストップモーションデータを生成しない。
(S305)
After the process of S303 or S304, the CPU 101 determines whether the setting of the second imaging unit 112 is “valid” or “invalid”. In the imaging apparatus 100 of the present embodiment, the generation method used when compressing the image obtained by the first imaging unit 110 as a moving image in response to a still image recording instruction (SW2 is ON) to be generated later is this. It depends on the setting. This moving image is a moving image in which images obtained by the first imaging unit 110 can be continuously displayed for a predetermined frame in response to the SW2 being turned on. In the present embodiment, this moving image is called a stop motion. . In the present embodiment, the second imaging unit is displayed when the image obtained by the first imaging unit 110 is displayed as a preview without using the stop motion for the image obtained by the second imaging unit 112. Assume that the images obtained in step 112 are sequentially synthesized. When the setting of the second imaging unit 112 is “valid”, a stop motion video is generated. If it is “invalid”, the moving image data stored in the RAM 102 before the SW2 is turned on is t0 or more, and if the stop motion setting is enabled, stop motion moving image data is generated. On the other hand, if it is “invalid”, if the moving image data stored in the RAM 102 before the SW2 is turned on is less than t0 or the stop motion setting is invalid, stop motion data is generated. do not do.

(S306)
S305で、第2撮像部112の設定が「有効」である場合(S305でYes)、CPU101は、ストップモーション動画を生成するように画像処理部111を制御する。この場合は、前述したように、SW2がONになったときに第1撮像部110で得られた画像を表示部140にプレビュー表示しているときに第2撮像部112で得られた画像をストップモーション動画に合成する。すなわち、図4(a)のごとく、第1撮像部110により得られた画像のストップモーション401に対して、第2撮像部112により得られた画像が402のように動画として重畳されたストップモーション動画を生成する。そのためS306では、SW2がONになったときに第1撮像部110により得られた画像をストップモーション動画用のサイズに変更する等の処理をするように画像処理部111を制御する。
(S306)
If the setting of the second imaging unit 112 is “valid” in S305 (Yes in S305), the CPU 101 controls the image processing unit 111 to generate a stop motion video. In this case, as described above, the image obtained by the second imaging unit 112 when the image obtained by the first imaging unit 110 when the SW2 is turned ON is displayed on the display unit 140 as a preview. Composite to stop motion video. That is, as shown in FIG. 4A, the stop motion 401 in which the image obtained by the second imaging unit 112 is superimposed as a moving image as in the case of the stop motion 401 of the image obtained by the first imaging unit 110. Generate a video. Therefore, in S306, the image processing unit 111 is controlled to perform processing such as changing the image obtained by the first imaging unit 110 to the size for the stop motion moving image when the SW2 is turned on.

(S307)
次に、CPU101は、第2撮像部112により得られた画像をS306で生成したストップモーション用の画像に合成した画像を生成するように画像処理部111を制御する。
(S307)
Next, the CPU 101 controls the image processing unit 111 so as to generate an image obtained by combining the image obtained by the second imaging unit 112 with the image for stop motion generated in S306.

(S308)
次に、CPU101は、S307で生成された合成画像を表示部140に表示するように表示制御部141を制御する。
(S308)
Next, the CPU 101 controls the display control unit 141 to display the composite image generated in S307 on the display unit 140.

(S309)
次に、CPU101は、S307で生成された合成画像を動画の1つのフレームにして動画データとして圧縮するように画像処理部111を制御する。
(S309)
Next, the CPU 101 controls the image processing unit 111 so as to compress the combined image generated in S307 into one frame of a moving image as moving image data.

(S310)
CPU101は、S307からS309の処理をストップモーション動画の時間がt1秒になるまで続ける。この処理により、t1秒分のストップモーション動画が生成されることになる。
(S310)
The CPU 101 continues the processing from S307 to S309 until the time of the stop motion moving image reaches t1 seconds. With this process, a stop motion video for t1 seconds is generated.

(S311)
一方、S305で、第2撮像部112の設定が「無効」である場合(S305でNo)、CPU101は、S304によるRAM102に記憶された動画データの消去がされたか否かを判定する。動画データが消去されている場合(S311でYes)、撮影後処理を終了する。すなわち、静止画記録の指示の直前の動画データもストップモーション動画の動画データも記録せずに処理を終了する。
(S311)
On the other hand, if the setting of the second imaging unit 112 is “invalid” in S305 (No in S305), the CPU 101 determines whether or not the moving image data stored in the RAM 102 in S304 has been erased. If the moving image data has been erased (Yes in S311), the post-shooting process ends. That is, the processing ends without recording the moving image data immediately before the instruction to record the still image and the moving image data of the stop motion moving image.

(S312)
一方、動画データが消去されていない場合(S311でNo)、CPU101は、ストップモーション動画の設定が有効であるか否かを判定する。ストップモーション動画の設定が有効でない場合(S312でNo)、ストップモーション動画の生成をせずに処理を終了する。
(S312)
On the other hand, when the moving image data is not erased (No in S311), the CPU 101 determines whether or not the setting of the stop motion moving image is valid. If the stop motion video setting is not valid (No in S312), the process ends without generating the stop motion video.

(S313)
一方、ストップモーション動画の設定が有効である場合(S312でYes)、CPU101は、ストップモーション動画を生成するように画像処理部111を制御する。S313では、SW2がONになったときに第1撮像部110により得られた画像をストップモーション動画用のサイズに変更する等の処理をするように画像処理部111を制御する。
(S313)
On the other hand, when the setting of the stop motion video is valid (Yes in S312), the CPU 101 controls the image processing unit 111 to generate the stop motion video. In S313, the image processing unit 111 is controlled so as to perform processing such as changing the image obtained by the first imaging unit 110 to the size for the stop motion moving image when the SW2 is turned on.

(S314)
次に、CPU101は、S313で生成された合成画像を表示部140に表示するように表示制御部141を制御する。
(S314)
Next, the CPU 101 controls the display control unit 141 so that the composite image generated in S313 is displayed on the display unit 140.

(S315)
次に、CPU101は、S313で生成された合成画像を動画の1つのフレームにして動画データとして圧縮するように画像処理部111を制御する。
(S315)
Next, the CPU 101 controls the image processing unit 111 so as to compress the combined image generated in S313 as moving image data into one frame of the moving image.

(S316)
CPU101は、S315の処理をストップモーション動画の時間がt2秒になるまで続ける。この処理により、t2秒分のストップモーション動画が生成されることになる。
(S316)
The CPU 101 continues the process of S315 until the time of the stop motion moving image reaches t2 seconds. With this process, a stop motion video for t2 seconds is generated.

(S317)
S310、S316の後、CPU101は、画像処理部111により生成されたストップモーション動画を記録媒体151に記録するように記録再生部150を制御する。なお、S303でSW2がONになる前の4秒分の動画データを記録媒体151に記録している場合には、その動画データが格納されている動画ファイルにストップモーション動画の動画データを追記する。
(S317)
After S310 and S316, the CPU 101 controls the recording / reproducing unit 150 to record the stop motion moving image generated by the image processing unit 111 on the recording medium 151. In addition, when the moving image data for 4 seconds before SW2 is turned ON in S303 is recorded on the recording medium 151, the moving image data of the stop motion moving image is added to the moving image file storing the moving image data. .

このようにして、S216の処理を終了する。なお、S216の処理終了後、基本的には、動画静止画撮影モードを終了せずS201から処理を継続する。   In this way, the process of S216 ends. Note that after the process of S216 ends, basically, the moving image still image shooting mode is not ended and the process continues from S201.

なお、本実施例においては、t1>t2とする。これは、単にストップモーション動画を表示する場合は、t2。ストップモーション動画に対応する画像を確認しているときのカメラマンの表情の変化をとらえた動画をストップモーション動画に合成している場合は、t1。このようにカメラマンの表情の変化をとらえた動画を重畳するので、t1の方が長くなるようにしている。   In this embodiment, t1> t2. This is t2 when a stop motion video is simply displayed. T1 when a moving image that captures a change in the facial expression of the photographer when checking an image corresponding to the stop motion moving image is combined with the stop motion moving image. In this way, since the moving image capturing the change in the expression of the photographer is superimposed, t1 is made longer.

次に、動画静止画撮影モードにおいて、記録される静止画および動画について図5を用いて説明する。図5(a)は、動画静止画撮影モードにおいて、SW2がONになったときタイミングと、記録される静止画と動画を示す概略図である。図5(a)では、以下の状況を示している。2013年10月10日に、15時16分20秒にSW2がONされ(レリーズ1)、動画データM1(501)と、静止画データP1(502)が、記録される。更に、15時30分45秒にSW2がONされ(レリーズ2)、動画データM2(503)と静止画データP2(504)が記録される。さらに、15時40分30秒にSW2がONされ(レリーズ3)、動画データM3(505)と静止画データP3(506)が記録される。   Next, still images and moving images that are recorded in the moving image still image shooting mode will be described with reference to FIG. FIG. 5A is a schematic diagram showing the timing when SW2 is turned on in the moving image still image shooting mode, and the recorded still image and moving image. FIG. 5A shows the following situation. On October 10, 2013, SW2 is turned on at 15:16:20 (release 1), and moving image data M1 (501) and still image data P1 (502) are recorded. Further, SW2 is turned on at 15:30:45 (release 2), and moving image data M2 (503) and still image data P2 (504) are recorded. Further, SW2 is turned on at 15:40:30 (release 3), and moving image data M3 (505) and still image data P3 (506) are recorded.

図5(b)は、記録媒体151に記録された動画ファイル、静止画ファイルの内容を示す概略図である。本実施例では、同じ日に記録されたデータを含むファイルは、1つのディレクトリ511(ディレクトリ名:100_1010)に格納される。ディレクトリ名及び各ファイル名はDCF(Design rule for Camera File System)に則って決定される。また、前述したように、同日に、動画静止画撮影モードで記録された動画データは、一つの動画ファイルに追記されていく。動画ファイル512(動画ファイル名:MDG_0001.MOV)には、図5(a)に示した同日に行われた、動画静止画撮影モードでの3回の撮影にそれぞれ対応した動画データが記録され、それぞれの動画データにはチャプタが設定される。すなわち、動画ファイルMDG_0001.MOVには、複数のシーンに対応する動画データが含まれている。それぞれのシーンは、同じフォルダに格納されている静止画ファイルIMG_0002.JPG、IMG_0003.JPG、IMG_0004.JPGにそれぞれ対応するシーンである。なお、通常の動画撮影モードで撮影された動画は、別の動画ファイルとして記録される。   FIG. 5B is a schematic diagram showing the contents of a moving image file and a still image file recorded on the recording medium 151. In this embodiment, a file including data recorded on the same day is stored in one directory 511 (directory name: 100_1010). The directory name and each file name are determined in accordance with DCF (Design rule for Camera File System). Further, as described above, the moving image data recorded in the moving image still image shooting mode is added to one moving image file on the same day. In the moving image file 512 (moving image file name: MDG — 0001.MOV), moving image data corresponding to each of three shootings in the moving image still image shooting mode performed on the same day shown in FIG. A chapter is set for each moving image data. That is, the moving image file MDG_0001. The MOV includes moving image data corresponding to a plurality of scenes. Each scene is stored in a still image file IMG_0002. JPG, IMG_0003. JPG, IMG_0004. Each scene corresponds to a JPG. Note that a moving image shot in the normal moving image shooting mode is recorded as a separate moving image file.

チャプタ1(514)に対応する動画データは、静止画ファイルIMG_0002.JPGの撮影指示に対応する動画データであり、図5(a)の動画データM1である。チャプタ2(515)に対応する動画データは、静止画ファイルIMG_0003.JPGの撮影指示に対応する動画データであり、図5(a)の動画データM2及び、静止画データP2と同じ画像から生成されたストップモーション動画データである。チャプタ3(516)に対応する動画データは、静止画ファイルIMG_0003.JPGの撮影指示に対応する動画データであり、静止画データP2と同じ画像から生成されたストップモーション動画データである。チャプタ3(516)に対応する動画データに対応する動画データに図5(a)の動画データM3が含まれないのは、動画データM3がt0秒以下の動画データであるからである。   The moving image data corresponding to chapter 1 (514) is a still image file IMG_0002. The moving image data corresponding to the JPG shooting instruction is the moving image data M1 in FIG. The moving image data corresponding to chapter 2 (515) is a still image file IMG_0003. This is motion picture data corresponding to a JPG shooting instruction, and is motion picture data M2 in FIG. 5A and stop motion motion picture data generated from the same image as the still picture data P2. The moving image data corresponding to chapter 3 (516) is a still image file IMG_0003. This is moving image data corresponding to a JPG shooting instruction, and is stop motion moving image data generated from the same image as the still image data P2. The moving image data corresponding to the chapter 3 (516) does not include the moving image data M3 in FIG. 5A because the moving image data M3 is moving image data of t0 seconds or less.

動画ファイルMDG_0001.MOVには、これらの複数の動画データを含む動画ファイルの「チャプタ参照情報」が、ヘッダ部分に記録される。このチャプタ情報は、動画静止画撮影モードで、動画データを記録媒体151に記録するたびに更新される。チャプタ参照情報について図5(c)を用いて説明する。チャプタ参照情報は、動画ファイルのファイルサイズ(521)、動画ファイルに含まれる動画データのフレーム数(522)が含まれる。更に、設定されたチャプタ番号(523)と、チャプタに対応する動画データの撮影時刻(524)、チャプタに対応する動画データの先頭フレームの番号(525)、各チャプタに対応する動画データのフレーム数(526)が含まれる。更に、第2撮像部112の画像の合成位置(527)、チャプタに対応する動画データ中のストップモーション動画データの位置(528)が含まれる。   Movie file MDG_0001. In the MOV, “chapter reference information” of a moving image file including the plurality of moving image data is recorded in the header portion. This chapter information is updated every time moving image data is recorded on the recording medium 151 in the moving image still image shooting mode. The chapter reference information will be described with reference to FIG. The chapter reference information includes the file size (521) of the moving image file and the number of frames (522) of the moving image data included in the moving image file. Furthermore, the set chapter number (523), the shooting time of video data corresponding to the chapter (524), the number of the first frame of video data corresponding to the chapter (525), and the number of frames of video data corresponding to each chapter (526) is included. Furthermore, the composition position (527) of the image of the second imaging unit 112 and the position (528) of stop motion moving image data in the moving image data corresponding to the chapter are included.

チャプタ番号(521)は、動画静止画撮影モードで、動画データが記録される度に追加される。動画データの撮影時刻(524)は、動画静止画撮影モードでSW2がONされた時刻および年、月、日である。すなわち、動画静止画撮影モードで記録された対応する静止画データの撮影時刻と同じである。このように各静止画データの撮影時刻と各チャプタの動画データの撮影時刻を同じにすることにより静止画データから対応するチャプタを識別することを容易にしている。   The chapter number (521) is added every time moving image data is recorded in the moving image still image shooting mode. The shooting time (524) of the moving image data is the time, year, month, and day when SW2 is turned on in the moving image still image shooting mode. That is, it is the same as the shooting time of the corresponding still image data recorded in the moving image still image shooting mode. Thus, by making the shooting time of each still image data the same as the shooting time of the moving image data of each chapter, it is easy to identify the corresponding chapter from the still image data.

各チャプタの先頭のフレーム番号(525)は、動画ファイル512に記録された動画データ全体の中で、各チャプタの先頭フレームのフレーム番号であり、これを用いると各動画データの頭出し再生が容易に可能となる。第2撮像部112の画像の合成位置(527)は、第1撮像部110の画像の左上の座標を(X,Y)=(0,0)としたときに、重畳する第2撮像部112の画像の左上の座標X,Yと、第2撮像部112の画像の横幅W、縦幅Hからなる。チャプタ1では、第2撮像部112の画像の座標、横幅、縦幅の値が0である。この場合は、第2撮像部112の撮影設定が「無効」であることを示している。この第2撮像部112の画像の合成位置(527)の情報を用いることで、サブカメラの画像のみをトリミングして再生することも可能となる。   The first frame number (525) of each chapter is the frame number of the first frame of each chapter in the entire moving image data recorded in the moving image file 512. By using this, it is easy to cue and reproduce each moving image data. It becomes possible. The composite position (527) of the image of the second imaging unit 112 is superimposed when the upper left coordinate of the image of the first imaging unit 110 is (X, Y) = (0, 0). And the horizontal width W and the vertical width H of the image of the second imaging unit 112. In chapter 1, the values of the coordinates, the horizontal width, and the vertical width of the image of the second imaging unit 112 are zero. This indicates that the shooting setting of the second imaging unit 112 is “invalid”. By using the information on the composite position (527) of the image of the second imaging unit 112, it is possible to trim and reproduce only the image of the sub camera.

ストップモーション動画データの位置(528)は、各チャプタの動画データの先頭フレームを0としたときの、ストップモーション動画データ部分のフレーム番号を示す。チャプタ1の動画データでは、ストップモーション動画の部分は存在しない。そしてチャプタ2では、チャプタ2の動画データのフレーム数180のうち、後半の90フレーム目から179フレーム目がストップモーション動画である。チャプタ3では、チャプタ3の動画データのフレーム数180のうちの全てがストップモーション動画である。ストップモーション動画データの位置がわかることで、各チャプタの動画データの中のストップモーション動画の部分のみを再生したり、ストップモーション動画以外の部分のみを再生したりすることが容易になる。   The position (528) of the stop motion moving image data indicates the frame number of the stop motion moving image data portion when the first frame of the moving image data of each chapter is 0. In the moving image data of chapter 1, there is no stop motion moving image portion. In chapter 2, out of the number of frames 180 of the moving image data of chapter 2, the latter 90th frame to 179th frame are stop motion moving images. In chapter 3, all of the number of frames 180 of the moving image data of chapter 3 are stop motion moving images. By knowing the position of the stop motion moving image data, it becomes easy to reproduce only the portion of the stop motion moving image in the moving image data of each chapter, or to reproduce only the portion other than the stop motion moving image.

動画静止画撮影モードで記録されたそれぞれの静止画ファイルには、動画静止画撮影モードでRAM102に記憶していた、静止画記録の指示が入力される前の撮像装置100の各ブロックの動作状態を示す付加情報が格納される(S303)。また、静止画ファイルにはその静止画の属性情報も格納されている。   In each still image file recorded in the moving image still image shooting mode, the operation state of each block of the imaging apparatus 100 stored in the RAM 102 in the moving image still image shooting mode before the still image recording instruction is input. Is stored (S303). The still image file also stores attribute information of the still image.

静止画データの属性情報とは、具体的には、静止画データを記録した撮像装置のメーカ名や機種名、撮影日時、画像の白とびや黒つぶれを判断できる被写体輝度、オートフォーカスによる焦点合わせの精度を示す合焦度、撮影時のサブカメラの設定情報等である。また、ユーザにより付与された画像の優先度を示すお気に入り度や、撮影時にAFのためのAF補助光を発光したかどうかの情報、ユーザにより設定された任意の文字列(イベント名)等の情報を付加して、属性情報として記録してもよい。また、静止画データを画像処理部109で解析することにより、静止画データに含まれる被写体やその数、被写体の位置、顔の大きさ等の情報を属性情報として記録してもよい。その他撮影時の設定やサムネイル画像も、静止画データの属性情報である。   The attribute information of the still image data specifically includes the manufacturer name and model name of the imaging device that recorded the still image data, the shooting date and time, the subject brightness that can determine overexposure and underexposure of the image, and focusing by autofocus Are the degree of focus indicating the accuracy of the image, setting information of the sub camera at the time of shooting, and the like. Also, information such as the degree of favorite indicating the priority of the image given by the user, information on whether or not the AF auxiliary light for AF was emitted at the time of shooting, and an arbitrary character string (event name) set by the user May be added and recorded as attribute information. Further, by analyzing the still image data by the image processing unit 109, information such as the number of subjects included in the still image data, the number of subjects, the position of the subject, and the size of the face may be recorded as attribute information. Other shooting settings and thumbnail images are still image data attribute information.

一方、静止画記録の指示が入力される前の撮像装置100の各ブロックの動作状態を示すこの付加情報は、図6に示すような情報である。図6に示すように、静止画記録の指示が入力される前の撮像装置100の各ブロックの動作状態は、所定時間単位で取得され、その情報に基づいて、付加情報が生成される。時間軸はSW2がONになった時を0とし、その前の撮像装置100の各ブロックの動作状態を4秒分保持している。図6には、カメラ100の姿勢情報、第1撮像部110におけるAF動作の有無の情報、及びズーム動作の有無の情報、被写体の情報としてメインカメラの被写体の笑顔度の情報が含まれる。撮像装置100の各ブロックの動作状態として、これら以外の項目があってもよい。例えば、動画データを構成する各フレームを画像処理部111で解析することにより、動画データに含まれる被写体や、被写体の位置、顔の大きさ等が、撮像装置100の各ブロックの動作状態の項目を含んでもよい。付加情報にはこのような情報が含まれる。   On the other hand, the additional information indicating the operation state of each block of the imaging apparatus 100 before the still image recording instruction is input is information as illustrated in FIG. 6. As shown in FIG. 6, the operation state of each block of the imaging apparatus 100 before the still image recording instruction is input is acquired in predetermined time units, and additional information is generated based on the information. The time axis is set to 0 when SW2 is turned ON, and the operation state of each block of the imaging apparatus 100 before that is held for 4 seconds. FIG. 6 includes posture information of the camera 100, information on the presence / absence of an AF operation in the first imaging unit 110, information on the presence / absence of a zoom operation, and information on the degree of smile of the subject of the main camera as subject information. There may be items other than these as the operation state of each block of the imaging apparatus 100. For example, the frames included in the moving image data are analyzed by the image processing unit 111 so that the subject included in the moving image data, the position of the subject, the size of the face, and the like are the items of the operation state of each block of the imaging apparatus 100. May be included. Such information is included in the additional information.

図6では、カメラ100の姿勢情報は、静止画撮影までずっと横位置(0度)で保持されていたことがわかる。また、AF動作は静止画撮影の2秒前に動作したのみであり、ズーム動作は3秒前に動作したのみであることがわかる。また被写体の笑顔度は、静止画撮影の3秒前から徐々に高くなっていることが分かる。   In FIG. 6, it can be seen that the posture information of the camera 100 was held in the horizontal position (0 degree) until the still image was taken. In addition, it can be seen that the AF operation only operates 2 seconds before still image shooting, and the zoom operation only operates 3 seconds before. It can also be seen that the smile level of the subject gradually increases from 3 seconds before still image shooting.

次に、動画静止画撮影モードで記録した動画ファイル、静止画ファイルが再生される場合の動作について、図7を用いて説明する。図7の処理は、CPU101が撮像装置100の各ブロックを制御することにより実行される。   Next, operations when a moving image file and a still image file recorded in the moving image still image shooting mode are reproduced will be described with reference to FIG. The process of FIG. 7 is executed by the CPU 101 controlling each block of the imaging apparatus 100.

「再生モード」において、前述したように、CPU101は、記録媒体151に記録されている動画ファイルまたは静止画ファイルのファイルリスト及びサムネイル画像を読み出すように記録再生部150を制御する。   In the “playback mode”, as described above, the CPU 101 controls the recording / playback unit 150 to read the file list and thumbnail image of the moving image file or still image file recorded on the recording medium 151.

(S701)
CPU101は、指定された静止画ファイルの静止画データを読み出すように記録再生部150を制御し、読みだされた静止画データを画像処理部111に伸張させる。そして伸張させた画像を表示部140に表示するように表示制御部141を制御する。
(S701)
The CPU 101 controls the recording / playback unit 150 so as to read still image data of a designated still image file, and causes the image processing unit 111 to expand the read still image data. Then, the display control unit 141 is controlled to display the expanded image on the display unit 140.

(S702)
次に、CPU101は、表示した静止画データに関連した動画データを検索する。CPU101は、表示した静止画データの撮影時刻を静止画ファイルの属性情報に基づいて確認し、次に、同日に動画静止画撮影モードで記録された動画ファイルが、記録媒体151に記録されているかを判定する。動画静止画撮影モードで記録された動画ファイルには、ファイル名に「MDG」という識別子が含まれるように記録されているため、静止画ファイルと同じ撮影日のファイル名に「MDG」を含む動画ファイルが記録媒体151に記録されているかを判定する。静止画ファイルと同じ撮影日のファイル名に「MDG」を含む動画ファイルが記録媒体151に記録されている場合、CPU101は、表示中の静止画データに対応する動画データが、その動画ファイルに含まれているかを判定する。CPU101は、特定された動画ファイルの「チャプタ参照情報」(図5(c))を取得し、撮影時刻524の中に、表示中の静止画データの撮影時刻と一致するチャプタが存在するかを判定する。
(S702)
Next, the CPU 101 searches for moving image data related to the displayed still image data. The CPU 101 confirms the shooting time of the displayed still image data based on the attribute information of the still image file. Next, whether the moving image file recorded in the moving image still image shooting mode on the same day is recorded on the recording medium 151. Determine. Since a moving image file recorded in the moving image still image shooting mode is recorded so that the identifier “MDG” is included in the file name, a moving image including “MDG” in the same shooting date as the still image file is recorded. It is determined whether the file is recorded on the recording medium 151. When a moving image file including “MDG” in the file name of the same shooting date as that of the still image file is recorded on the recording medium 151, the CPU 101 includes moving image data corresponding to the still image data being displayed in the moving image file. Determine if it is. The CPU 101 acquires “chapter reference information” (FIG. 5C) of the specified moving image file, and determines whether there is a chapter that matches the shooting time of the still image data being displayed in the shooting time 524. judge.

(S703)
次に、CPU101は、S702の検索の結果、表示中の静止画データの関連動画があるか否かを判定する。
(S703)
Next, as a result of the search in S702, the CPU 101 determines whether there is a related moving image of the still image data being displayed.

(S704)
S703で、表示中の静止画データの関連動画がある場合(S703でYes)、CPU101は、表示中の静止画データに関連動画の存在を示すアイコンを表示部140に表示するように表示制御部141を制御する。このアイコンは関連動画の存在を示すだけでなく、アイコンが指定されたことで、関連動画を再生させるためのアイコンであってもよい。このアイコンは、たとえば図8(a)の関連動画全再生アイコン802であったり、対応動画再生アイコン803であったりする。関連動画全再生アイコン802は、表示中の静止画データの関連動画である動画ファイルの全動画データを再生する指示に対応するアイコンである。対応動画再生アイコン803は、表示中の静止画データの関連動画である動画ファイル中の、表示中の静止画データに関連するチャプタ(シーン)の動画データの再生の指示に対応するアイコンである。
(S704)
In S703, when there is a related moving image of the still image data being displayed (Yes in S703), the CPU 101 causes the display unit 140 to display an icon indicating the presence of the related moving image in the displayed still image data. 141 is controlled. This icon may not only indicate the presence of a related video, but may also be an icon for playing back a related video by designating the icon. This icon may be, for example, the related video full play icon 802 or the corresponding video play icon 803 in FIG. The related moving image all reproduction icon 802 is an icon corresponding to an instruction to reproduce all moving image data of a moving image file that is a related moving image of the still image data being displayed. The corresponding moving image reproduction icon 803 is an icon corresponding to an instruction to reproduce the moving image data of the chapter (scene) related to the still image data being displayed in the moving image file that is the moving image related to the still image data being displayed.

(S705)
次に、CPU101は、S704で表示したアイコンが選択されたかを判定する。
(S705)
Next, the CPU 101 determines whether the icon displayed in S704 has been selected.

(S706)
S704で表示したアイコンが選択された場合(S705でYes)、CPU101は、対応する動画データを再生する。関連動画全再生アイコン802が選択された場合は、表示中の静止画データの関連動画である動画ファイルの全動画データを先頭から順番に読みだすように記録再生部150を制御し、読みだされた動画データを順次、画像処理部111で伸張させる。そして伸張された画像を表示部140に表示するように表示制御部141を制御する。一方、対応動画再生アイコン803が選択された場合は、表示中の静止画データの関連動画である動画ファイル中の、表示中の静止画データに関連するチャプタ(シーン)の動画データを読み出すように、記録再生部150を制御する。そして、読みだされた動画データを順次伸張するように画像処理部111を制御し、伸張された画像を表示部140に表示するように表示制御部141を制御する。この処理により関連する動画ファイルの全動画または関連するチャプタ(シーン)に対応する動画データをユーザは確認することができる。この処理が終了すると処理をS704に戻す。
(S706)
When the icon displayed in S704 is selected (Yes in S705), the CPU 101 reproduces the corresponding moving image data. When the related video all playback icon 802 is selected, the recording / playback unit 150 is controlled so that all video data of the video file that is the related video of the still image data being displayed is read in order from the top. The moving image data is sequentially expanded by the image processing unit 111. Then, the display control unit 141 is controlled to display the expanded image on the display unit 140. On the other hand, when the corresponding moving image playback icon 803 is selected, the moving image data of the chapter (scene) related to the still image data being displayed in the moving image file that is the moving image related to the still image data being displayed is read out. The recording / reproducing unit 150 is controlled. Then, the image processing unit 111 is controlled to sequentially expand the read moving image data, and the display control unit 141 is controlled to display the expanded image on the display unit 140. By this processing, the user can confirm the moving image data corresponding to all moving images or related chapters (scenes) of the related moving image file. When this process ends, the process returns to S704.

(S707)
次に、S703で表示中の静止画データの関連動画がないと判定された場合(S703でNo)、及びS705で、S704で表示したアイコンが選択されていない場合(S705でNo)。CPU101は、表示中の静止画を別の静止画ファイルの画像に変更する指示が入力されているか否かを判定する。表示中の静止画を別の静止画ファイルの画像に変更する指示が入力された場合は(S707でYes)、処理をS701に戻す。
(S707)
Next, when it is determined in S703 that there is no related moving image of the still image data being displayed (No in S703), and in S705, the icon displayed in S704 is not selected (No in S705). The CPU 101 determines whether or not an instruction for changing the displayed still image to an image of another still image file is input. When an instruction to change the still image being displayed to an image of another still image file is input (Yes in S707), the process returns to S701.

(S708)
一方、表示中の静止画を別の静止画ファイルの画像に変更する指示が入力されていない場合(S707でNo)、CPU101は、再生モード以外のモードへの変更指示やその他の処理の指示が入力されたかを判定する。CPU101は、モードの変更やその他の処理の指示がない場合には、処理をS704へ戻し、モードの変更やその他の処理の指示がある場合は、本処理を終了する。
(S708)
On the other hand, if an instruction to change the still image being displayed to an image of another still image file has not been input (No in S707), the CPU 101 issues an instruction to change to a mode other than the playback mode or other processing. Determine if it was entered. If there is no instruction for changing the mode or other processing, the CPU 101 returns the processing to S704, and if there is an instruction for changing the mode or other processing, this processing ends.

<チャプタ参照情報について>
なお、本実施例において、「チャプタ参照情報」は、動画静止画撮影モードで撮影が行われ、動画ファイルに追記が行われたときに、更新される。具体的には、動画ファイルのファイルサイズ(521)の情報、動画ファイルに含まれる動画データのフレーム数(522)の情報については、追記が行われるたびに変更する必要がある。また、撮像装置100において、たとえば動画ファイル内の特定のチャプタの動画を削除したときには、該当するチャプタの情報を削除する。また編集時にも、上述の動画ファイルのファイルサイズ(521)の情報、動画ファイルに含まれる動画データのフレーム数(522)の情報については、編集後のファイルサイズ、フレーム数に基づいて変更する。
<About chapter reference information>
In this embodiment, the “chapter reference information” is updated when shooting is performed in the moving image still image shooting mode and additional recording is performed on the moving image file. Specifically, the information on the file size (521) of the moving image file and the information on the number of frames (522) of the moving image data included in the moving image file need to be changed every time additional recording is performed. Further, in the imaging device 100, for example, when a moving image of a specific chapter in the moving image file is deleted, the information on the corresponding chapter is deleted. Also during editing, the information on the file size (521) of the moving image file and the information on the number of frames (522) of the moving image data included in the moving image file are changed based on the edited file size and the number of frames.

しかしながら、外部の編集装置により、動画静止画撮影モードで撮影された動画ファイルが編集された場合には、チャプタ参照情報が更新されない場合がある。そうすると、チャプタ参照情報を用いて、表示中の静止画データに関連するチャプタ(シーン)の動画データが特定できずに、他の動画データが再生されてしまったり、シーンが存在しないなどの不整合が発生したりする可能性がある。   However, when a moving image file shot in the moving image still image shooting mode is edited by an external editing device, the chapter reference information may not be updated. Then, the chapter reference information cannot be used to specify the chapter (scene) movie data related to the still image data being displayed, and other movie data is played back, or there is no scene. May occur.

そこで、本実施例の撮像装置100は、S702において、CPU101は、表示中の静止画データの関連動画である動画ファイルの記録媒体151におけるファイルサイズを取得するように、記録再生部150を制御する。記録媒体151におけるファイルサイズは、ファイルシステム上の該当する動画ファイルのファイルエントリから取得する。そしてチャプタ参照情報に格納されている動画ファイルのファイルサイズの情報と、記録媒体151におけるファイルサイズを比較し、これらが一致しているかを判定する。不一致である場合には、関連動画無し、と判定(S703でNo)して、アイコンの表示を行わないようにする(図8(c))。また関連動画全再生アイコン802のみを表示し、対応動画再生アイコン803は表示しないようにしてもよい(図8(b))。このようにすることで、少なくとも、表示中の静止画データの関連動画である動画ファイル中の、表示中の静止画データに関連するチャプタ(シーン)の動画データの再生の指示をすることがなくなるので、無関係のチャプタ(シーン)の動画データを再生してしまうことがなくなる。   Therefore, in step S702, the imaging apparatus 100 according to the present exemplary embodiment controls the recording / playback unit 150 so that the CPU 101 acquires the file size in the recording medium 151 of the moving image file that is the related moving image of the still image data being displayed. . The file size in the recording medium 151 is acquired from the file entry of the corresponding moving image file on the file system. Then, the file size information of the moving image file stored in the chapter reference information is compared with the file size in the recording medium 151 to determine whether they match. If they do not match, it is determined that there is no related video (No in S703), and the icon is not displayed (FIG. 8C). Further, only the related moving image reproduction icon 802 may be displayed and the corresponding moving image reproduction icon 803 may not be displayed (FIG. 8B). In this way, at least, there is no instruction to reproduce the moving image data of the chapter (scene) related to the still image data being displayed in the moving image file that is the moving image related to the still image data being displayed. Therefore, it is not possible to reproduce moving image data of unrelated chapters (scenes).

以上のように、本実施例の撮像装置100は、表示された静止画に関連する動画の存在を確認することができる。また、表示された静止画に関連する動画の存在が不確かな状態になった場合には、表示された静止画に関連する動画があることを示す表示を行わないようにすることができる。   As described above, the imaging apparatus 100 according to the present embodiment can confirm the presence of a moving image related to a displayed still image. In addition, when the existence of a moving image related to the displayed still image becomes uncertain, it is possible to prevent display indicating that there is a moving image related to the displayed still image.

なお、本実施例では、撮像装置を例にとって説明したが、内蔵マイクを備え、外部マイクからの音声信号を取得することができる装置であればどのような装置でも良い。たとえば、携帯電話、スマートフォン、タブレット型情報端末、ノート型情報端末、コンピュータ等であってもよい。   In the present embodiment, the image pickup apparatus has been described as an example. However, any apparatus may be used as long as it includes an internal microphone and can acquire an audio signal from an external microphone. For example, a mobile phone, a smartphone, a tablet information terminal, a notebook information terminal, a computer, or the like may be used.

(他の実施形態)
上述の実施形態は、システム或は装置のコンピュータ(或いはCPU、MPU等)によりソフトウェア的に実現することも可能である。従って、上述の実施形態をコンピュータで実現するために、該コンピュータに供給されるコンピュータプログラム自体も本発明を実現するものである。つまり、上述の実施形態の機能を実現するためのコンピュータプログラム自体も本発明の一つである。
(Other embodiments)
The above-described embodiment can also be realized in software by a computer of a system or apparatus (or CPU, MPU, etc.). Therefore, the computer program itself supplied to the computer in order to implement the above-described embodiment by the computer also realizes the present invention. That is, the computer program itself for realizing the functions of the above-described embodiments is also one aspect of the present invention.

なお、上述の実施形態を実現するためのコンピュータプログラムは、コンピュータで読み取り可能であれば、どのような形態であってもよい。例えば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等で構成することができるが、これらに限るものではない。上述の実施形態を実現するためのコンピュータプログラムは、記憶媒体又は有線/無線通信によりコンピュータに供給される。プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記憶媒体、MO、CD、DVD等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。   The computer program for realizing the above-described embodiment may be in any form as long as it can be read by a computer. For example, it can be composed of object code, a program executed by an interpreter, script data supplied to the OS, but is not limited thereto. A computer program for realizing the above-described embodiment is supplied to a computer via a storage medium or wired / wireless communication. Examples of the storage medium for supplying the program include a magnetic storage medium such as a flexible disk, a hard disk, and a magnetic tape, an optical / magneto-optical storage medium such as an MO, CD, and DVD, and a nonvolatile semiconductor memory.

有線/無線通信を用いたコンピュータプログラムの供給方法としては、コンピュータネットワーク上のサーバを利用する方法がある。この場合、本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムファイル)をサーバに記憶しておく。プログラムファイルとしては、実行形式のものであっても、ソースコードであっても良い。そして、このサーバにアクセスしたクライアントコンピュータに、プログラムファイルをダウンロードすることによって供給する。この場合、プログラムファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに分散して配置することも可能である。つまり、上述の実施形態を実現するためのプログラムファイルをクライアントコンピュータに提供するサーバ装置も本発明の一つである。   As a computer program supply method using wired / wireless communication, there is a method of using a server on a computer network. In this case, a data file (program file) that can be a computer program forming the present invention is stored in the server. The program file may be an executable format or a source code. Then, the program file is supplied by downloading to a client computer that has accessed the server. In this case, the program file can be divided into a plurality of segment files, and the segment files can be distributed and arranged on different servers. That is, a server apparatus that provides a client computer with a program file for realizing the above-described embodiment is also one aspect of the present invention.

また、上述の実施形態を実現するためのコンピュータプログラムを暗号化して格納した記憶媒体を配布し、所定の条件を満たしたユーザに、暗号化を解く鍵情報を供給し、ユーザの有するコンピュータへのインストールを許可してもよい。鍵情報は、例えばインターネットを介してホームページからダウンロードさせることによって供給することができる。また、上述の実施形態を実現するためのコンピュータプログラムは、すでにコンピュータ上で稼働するOSの機能を利用するものであってもよい。さらに、上述の実施形態を実現するためのコンピュータプログラムは、その一部をコンピュータに装着される拡張ボード等のファームウェアで構成してもよいし、拡張ボード等が備えるCPUで実行するようにしてもよい。   In addition, a storage medium in which the computer program for realizing the above-described embodiment is encrypted and distributed is distributed, and key information for decrypting is supplied to a user who satisfies a predetermined condition, and the user's computer Installation may be allowed. The key information can be supplied by being downloaded from a homepage via the Internet, for example. Further, the computer program for realizing the above-described embodiment may use an OS function already running on the computer. Further, a part of the computer program for realizing the above-described embodiment may be configured by firmware such as an expansion board attached to the computer, or may be executed by a CPU provided in the expansion board. Good.

Claims (11)

記録媒体に記録された動画ファイルおよび静止画ファイルを再生する再生手段と、
前記再生手段により再生された静止画ファイルに対応する画像を表示部に表示させる表示制御手段と、
前記表示部に表示中の画像に対応する静止画ファイルに関連する動画ファイルの前記記録媒体におけるファイルサイズと、前記動画ファイルに含まれる参照情報に格納された前記動画ファイルのファイルサイズとが一致する場合に、前記表示中の画像に対応する静止画ファイルに関連する動画ファイルの再生を指示するための画像を表示するように前記表示制御手段を制御する制御手段とを有することを特徴とする画像処理装置。
Playback means for playing back a moving image file and a still image file recorded on a recording medium;
Display control means for displaying an image corresponding to the still image file reproduced by the reproduction means on a display unit;
The file size in the recording medium of the moving image file related to the still image file corresponding to the image currently displayed on the display unit matches the file size of the moving image file stored in the reference information included in the moving image file. And a control means for controlling the display control means so as to display an image for instructing reproduction of a moving image file associated with a still image file corresponding to the image being displayed. Processing equipment.
前記制御手段は、前記表示中の画像に対応する静止画ファイルの撮影時刻情報に基づいて、前記関連する動画ファイルを判定することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the control unit determines the related moving image file based on shooting time information of a still image file corresponding to the image being displayed. 前記表示中の画像に対応する静止画ファイルに関連する動画ファイルの再生を指示するための画像は、前記前記表示中の画像に対応する静止画ファイルに関連するシーンのみの再生を指示するための画像であることを特徴とする請求項1または2に記載の画像処理装置。   The image for instructing the reproduction of the moving image file related to the still image file corresponding to the image being displayed is for instructing the reproduction of only the scene related to the still image file corresponding to the image being displayed. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image. 前記表示中の画像に対応する静止画ファイルに関連する動画ファイルの再生を指示するための画像は、前記前記表示中の画像に対応する静止画ファイルに関連するシーン以外のシーンも再生を指示するための画像であることを特徴とする請求項1または2に記載の画像処理装置。   The image for instructing the reproduction of the moving image file related to the still image file corresponding to the image being displayed also instructs the reproduction of a scene other than the scene related to the still image file corresponding to the image being displayed. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image. 前記制御手段は、前記表示中の画像に対応する静止画ファイルに関連するシーンを、
前記関連する動画ファイルの参照情報に格納された各シーンの撮影時刻情報と、前記表示中の画像に対応する静止画ファイルの撮影時刻情報都に基づいて判定することを特徴とする請求項2または3に記載の画像処理装置。
The control means is configured to select a scene related to a still image file corresponding to the image being displayed.
The determination is based on the shooting time information of each scene stored in the reference information of the related moving image file and the shooting time information of the still image file corresponding to the image being displayed. The image processing apparatus according to 3.
記録媒体に記録された動画ファイルおよび静止画ファイルを再生する再生ステップと、
前記再生ステップにより再生された静止画ファイルに対応する画像を表示部に表示させる表示制御ステップと、
前記表示ステップは、前記表示部に表示中の画像に対応する静止画ファイルに関連する動画ファイルの前記記録媒体におけるファイルサイズと、前記動画ファイルに含まれる参照情報に格納された前記動画ファイルのファイルサイズとが一致する場合に、前記表示中の画像に対応する静止画ファイルに関連する動画ファイルの再生を指示するための画像を表示することを特徴とする画像処理方法。
A playback step of playing back a moving image file and a still image file recorded on the recording medium;
A display control step of causing the display unit to display an image corresponding to the still image file reproduced by the reproduction step;
The display step includes: a file size of the moving image file related to the still image file corresponding to the image being displayed on the display unit in the recording medium; and the file of the moving image file stored in the reference information included in the moving image file. An image processing method comprising: displaying an image for instructing reproduction of a moving image file related to a still image file corresponding to the image being displayed when the sizes match.
前記表示中の画像に対応する静止画ファイルの撮影時刻情報に基づいて、前記関連する動画ファイルを判定することを特徴とする請求項6に記載の画像処理方法。   The image processing method according to claim 6, wherein the related moving image file is determined based on shooting time information of a still image file corresponding to the image being displayed. 前記表示中の画像に対応する静止画ファイルに関連する動画ファイルの再生を指示するための画像は、前記前記表示中の画像に対応する静止画ファイルに関連するシーンのみの再生を指示するための画像であることを特徴とする請求項6または7に記載の画像処理方法。   The image for instructing the reproduction of the moving image file related to the still image file corresponding to the image being displayed is for instructing the reproduction of only the scene related to the still image file corresponding to the image being displayed. The image processing method according to claim 6, wherein the image processing method is an image. 前記表示中の画像に対応する静止画ファイルに関連する動画ファイルの再生を指示するための画像は、前記前記表示中の画像に対応する静止画ファイルに関連するシーン以外のシーンも再生を指示するための画像であることを特徴とする請求項6または7に記載の画像処理方法。   The image for instructing the reproduction of the moving image file related to the still image file corresponding to the image being displayed also instructs the reproduction of a scene other than the scene related to the still image file corresponding to the image being displayed. The image processing method according to claim 6, wherein the image processing method is an image. 前記表示中の画像に対応する静止画ファイルに関連するシーンを、
前記関連する動画ファイルの参照情報に格納された各シーンの撮影時刻情報と、前記表示中の画像に対応する静止画ファイルの撮影時刻情報都に基づいて判定することを特徴とする請求項6または7に記載の画像処理方法。
A scene related to a still image file corresponding to the image being displayed,
The determination is based on the shooting time information of each scene stored in the reference information of the related moving image file and the shooting time information of the still image file corresponding to the image being displayed. 8. The image processing method according to 7.
コンピュータに請求項6から10のいずれか1項に記載の画像処理方法を実行させるためのプログラム。
A program for causing a computer to execute the image processing method according to any one of claims 6 to 10.
JP2013272049A 2013-12-27 2013-12-27 Image processing apparatus, image processing method, and program Expired - Fee Related JP6249771B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013272049A JP6249771B2 (en) 2013-12-27 2013-12-27 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013272049A JP6249771B2 (en) 2013-12-27 2013-12-27 Image processing apparatus, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2015126516A true JP2015126516A (en) 2015-07-06
JP2015126516A5 JP2015126516A5 (en) 2017-02-09
JP6249771B2 JP6249771B2 (en) 2017-12-20

Family

ID=53536889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013272049A Expired - Fee Related JP6249771B2 (en) 2013-12-27 2013-12-27 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6249771B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10148879B2 (en) 2016-02-18 2018-12-04 Samsung Electronics Co., Ltd. Electronic device for acquiring still images and corresponding video and operating method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003283946A (en) * 2002-03-22 2003-10-03 Nippon Telegr & Teleph Corp <Ntt> Video related information provider and method therefor executing program of the method and recording medium having recorded executing program
JP2007181164A (en) * 2005-11-29 2007-07-12 Matsushita Electric Ind Co Ltd Image reproducing apparatus
JP2012203741A (en) * 2011-03-25 2012-10-22 Brother Ind Ltd Information processing program, information processing device, and information processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003283946A (en) * 2002-03-22 2003-10-03 Nippon Telegr & Teleph Corp <Ntt> Video related information provider and method therefor executing program of the method and recording medium having recorded executing program
JP2007181164A (en) * 2005-11-29 2007-07-12 Matsushita Electric Ind Co Ltd Image reproducing apparatus
JP2012203741A (en) * 2011-03-25 2012-10-22 Brother Ind Ltd Information processing program, information processing device, and information processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10148879B2 (en) 2016-02-18 2018-12-04 Samsung Electronics Co., Ltd. Electronic device for acquiring still images and corresponding video and operating method thereof

Also Published As

Publication number Publication date
JP6249771B2 (en) 2017-12-20

Similar Documents

Publication Publication Date Title
CN106683601B (en) Display control apparatus and control method thereof
KR20120068078A (en) Image photographing apparatus and method for connecting audio data to image data thereof
KR20120081516A (en) Digital photographing apparatus and control method thereof
JP6355333B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP6292872B2 (en) Image processing apparatus, image processing method, and program
JP6643008B2 (en) Image processing apparatus, control method thereof, control program, and storage medium
JP6249771B2 (en) Image processing apparatus, image processing method, and program
JP6685700B2 (en) Display control device, control method thereof, program, and storage medium
JP6611567B2 (en) Display control apparatus and control method thereof
JP2015023317A (en) Image management device, control method thereof, program, and storage medium
JP2015023317A5 (en) Image management apparatus, image management method, program, and storage medium
JP6584295B2 (en) Display control apparatus and control method thereof
JP2020182164A (en) Imaging apparatus, control method thereof, and program
KR101946574B1 (en) Apparatus and method for reproducing image and computer-readable storage medium
JP6643081B2 (en) Album moving image generating apparatus, album moving image generating method, and program
JP6296791B2 (en) Image processing apparatus, image processing method, and program
JP6071357B2 (en) Image processing apparatus, image processing method, and program
JP7214538B2 (en) Imaging device and recording control method
JP7150590B2 (en) Electronics
JP5593652B2 (en) Camera and movie playback program
JP7150591B2 (en) Electronics
JP6332963B2 (en) Image processing apparatus and image processing apparatus control method
JP2017069596A (en) Image processing device and method
JP2014199280A (en) Imaging device, control method of imaging device, and program
JP2015002417A (en) Photographing apparatus and method for controlling the same

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171121

R151 Written notification of patent or utility model registration

Ref document number: 6249771

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees