JP2005252803A - Apparatus, method, and program for image processing and recording medium with the program stored - Google Patents
Apparatus, method, and program for image processing and recording medium with the program stored Download PDFInfo
- Publication number
- JP2005252803A JP2005252803A JP2004062305A JP2004062305A JP2005252803A JP 2005252803 A JP2005252803 A JP 2005252803A JP 2004062305 A JP2004062305 A JP 2004062305A JP 2004062305 A JP2004062305 A JP 2004062305A JP 2005252803 A JP2005252803 A JP 2005252803A
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- unit
- images
- target still
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Image Processing (AREA)
- Studio Circuits (AREA)
Abstract
Description
この発明は、撮像手段によって撮像された動画像を記憶または再生する画像処理技術に関する。 The present invention relates to an image processing technique for storing or reproducing a moving image captured by an imaging unit.
従来、複数の撮像装置により撮像された画像から生成された複数のパノラマ画像を表示し、その中の1つを選択することで1つの撮像装置が選択され、そのパノラマ画像が表示されるという画像処理方法が開示されている(例えば、特許文献1)。またコンピュータのアプリケーションプログラムの1つとして、格納された複数の動画像の最初のフレーム画像を縮小してサムネイル表示する画像処理方法も周知な技術として知られている。これらの技術を使用すれば、ユーザーは、撮影した複数の動画像を1つの画面内に表示させ、所望する動画像を指定することによって容易に選択することができる。 Conventionally, an image in which a plurality of panoramic images generated from images captured by a plurality of imaging devices is displayed, and one of the panoramic images is selected by selecting one of the panoramic images is displayed. A processing method is disclosed (for example, Patent Document 1). As one of computer application programs, an image processing method for displaying thumbnails by reducing the first frame images of a plurality of stored moving images is also known as a well-known technique. By using these techniques, the user can easily select a plurality of captured moving images by displaying them on one screen and designating a desired moving image.
近年運動会や旅行などで、スチル写真に換わって動画像による撮影が行われることが多い。この場合、撮影した動画像には、パンやチルトなどいろいろな撮影シーンが多く存在している。それぞれの撮影シーンを撮った動画像は、通常撮影時間が不連続であったり、撮影される被写体の場所が異なっていたりしている。このように撮像した動画像を、上述した従来の画像処理技術によって1つの画面内に表示しても、撮影した被写体の位置関係を表示するものでは無いため、それぞれの動画像が撮影した被写体の場所について、その位置関係を把握するのが難しかった。特に、各撮影シーンを写した動画像について、最初のフレーム画像をサムネイル表示した場合は、撮影された被写体の一部のみを表示するため、どこで撮った撮影シーンか分かりづらく、ユーザーは各々の動画像間における被写体の位置関係を判断するのは困難であった。このため、ユーザーが所望する被写体が撮影されている動画像を、表示された画像から選択することは簡単ではなかった。 In recent years, athletic meet and travel, shooting with moving images is often performed instead of still photos. In this case, there are many various shooting scenes such as pan and tilt in the captured moving image. The moving images taken of the respective shooting scenes are usually discontinuous in shooting time or have different locations of subjects to be shot. Even if a moving image captured in this way is displayed on one screen by the conventional image processing technique described above, the positional relationship of the captured subject is not displayed. It was difficult to understand the location of the place. In particular, when the first frame image is displayed as a thumbnail for a moving image showing each shooting scene, only a part of the shot subject is displayed, so it is difficult to know where the shooting scene was shot. It was difficult to determine the positional relationship of the subject between the images. For this reason, it is not easy to select a moving image in which a subject desired by the user is captured from the displayed images.
本発明は、このような課題の少なくとも一部を解決するためになされたもので、撮像された複数の動画像について、各動画像に撮像された被写体の位置関係が分かるように画像表示し、表示された画像からユーザーが所望する被写体を撮像した動画像を容易に抽出することができる画像処理装置、画像処理方法、画像処理プログラムまたはそのプログラムを記録した記録媒体を提供することを目的とする。 The present invention was made to solve at least a part of such problems, and for a plurality of captured moving images, an image is displayed so that the positional relationship of the subject captured in each moving image can be understood, An object of the present invention is to provide an image processing apparatus, an image processing method, an image processing program, or a recording medium on which the program is recorded, which can easily extract a moving image obtained by capturing a desired subject from a displayed image. .
上記目的を達成する本発明の画像処理装置は、撮像手段によって撮像された動画像を記憶または再生する画像処理装置であって、時系列に連続して撮像した動画像を1つの単位動画像として取得し記憶する動画像記憶部と、前記単位動画像を構成するフレーム画像のうち、所定のフレーム画像を繋ぎ合わせた対象静止画像を生成し記憶する静止画像生成部と、前記静止画像生成部が生成した対象静止画像を表示部に表示する画像表示部と、外部から指定された画像位置を画像領域内に含むフレーム画像を、前記表示された対象静止画像から抽出し、該抽出されたフレーム画像が属する単位動画像を前記記憶された単位動画像から抽出する動画像抽出部と、を備えたことを要旨とする。 An image processing apparatus of the present invention that achieves the above object is an image processing apparatus that stores or reproduces a moving image picked up by an image pickup means, and a moving image picked up in time series as one unit moving image. A moving image storage unit that acquires and stores, a still image generation unit that generates and stores a target still image obtained by connecting predetermined frame images among frame images constituting the unit moving image, and the still image generation unit An image display unit that displays the generated target still image on the display unit, and a frame image that includes the image position designated from outside in the image region is extracted from the displayed target still image, and the extracted frame image And a moving image extraction unit that extracts a unit moving image to which the image belongs from the stored unit moving image.
かかる画像処理装置によれば、撮像した複数の動画像に撮像されている被写体を、所定のフレーム画像を用いて1つの対象静止画像として表示する。そして、表示された対象静止画像のうちユーザーが指定した画像位置を画像領域内に含むフレーム画像を抽出し、抽出されたフレーム画像が属する動画像を抽出する。従って、ユーザーは撮像した複数の動画像から所望する被写体が撮像された動画像を容易に選択することができる。 According to such an image processing apparatus, a subject captured in a plurality of captured moving images is displayed as one target still image using a predetermined frame image. Then, a frame image including the image position specified by the user in the image area is extracted from the displayed target still images, and a moving image to which the extracted frame image belongs is extracted. Therefore, the user can easily select a moving image in which a desired subject is captured from a plurality of captured moving images.
ここで、前記静止画像生成部は、前記単位動画像を構成するフレーム画像のうち所定の1つを基準フレーム画像として設定し、該設定された基準フレーム画像と互いに画像が重なるフレーム画像を抽出したのち、該抽出したフレーム画像のうち前記基準フレーム画像との重なり部分が最も少ないフレーム画像を選択する画像選択部と、前記画像選択部がフレーム画像を抽出するとき、前記画像選択部によって既に基準フレーム画像として設定されたフレーム画像と既に抽出されたフレーム画像とを、フレーム画像の抽出対象から除外する画像排除部とを備え、前記画像選択部が選択したフレーム画像を繋ぎ合わせた対象静止画像を生成するものとしてもよい。 Here, the still image generation unit sets a predetermined one of the frame images constituting the unit moving image as a reference frame image, and extracts a frame image that overlaps the set reference frame image. Thereafter, an image selection unit that selects a frame image that has the smallest overlapping portion with the reference frame image from among the extracted frame images, and when the image selection unit extracts a frame image, the image selection unit has already performed a reference frame. An image excluding unit that excludes a frame image set as an image and an already extracted frame image from an extraction target of the frame image, and generates a target still image by joining the frame images selected by the image selecting unit It is good also as what to do.
こうすれば、1つの動画像から、少ない枚数のフレーム画像を繋ぎ合わせた1つの対象静止画像を生成することができる。この結果、動画像が撮像した被写体について、ほぼ全体の画像を少ない枚数のフレーム画像を繋ぎ合わせた画像で表示することができ、対象静止画像の生成処理負荷を軽減することができる。 In this way, it is possible to generate one target still image obtained by connecting a small number of frame images from one moving image. As a result, it is possible to display almost the entire image as an image obtained by joining a small number of frame images for the subject captured by the moving image, and to reduce the processing load for generating the target still image.
また、前記静止画像生成部は、前記対象静止画像の生成に用いられるフレーム画像について、前記対象静止画像に対する相対的な位置関係を算出し、該算出された相対位置データを付随して前記フレーム画像を記憶することとしてもよい。こうすれば、対象静止画像においてユーザーが指定した画像位置を画像領域内に含むフレーム画像の抽出に際し、フレーム画像の相対位置データを参照することによって、該当するフレーム画像を容易に抽出することができる。 Further, the still image generation unit calculates a relative positional relationship with respect to the target still image for the frame image used for generating the target still image, and attaches the calculated relative position data to the frame image. May be stored. In this way, when extracting the frame image including the image position designated by the user in the target still image in the image area, the corresponding frame image can be easily extracted by referring to the relative position data of the frame image. .
さらに、前記静止画像生成部は、前記フレーム画像の記憶に際して、該フレーム画像が属する前記単位動画像と関係付けて前記フレーム画像を記憶するものとしてもよい。こうすれば、抽出されたフレーム画像から、このフレーム画像が属する動画像を直ちに抽出することができる。 Furthermore, the still image generation unit may store the frame image in association with the unit moving image to which the frame image belongs when storing the frame image. In this way, a moving image to which the frame image belongs can be immediately extracted from the extracted frame image.
また、前記静止画像生成部は、生成された対象静止画像が複数存在する場合、該複数の対象静止画像を繋ぎ合わせた画像を、新たに対象静止画像として生成するものとしてもよい。こうすれば、撮像された複数の動画像における各被写体を同一画面に含む1つの静止画像として表示することができる。 Further, when there are a plurality of target still images generated, the still image generation unit may newly generate an image obtained by joining the plurality of target still images as a target still image. In this way, it is possible to display each subject in a plurality of captured moving images as one still image including the same screen.
また、前記静止画像生成部は、前記対象静止画像の生成に用いられるフレーム画像間での相対的な位置関係データを算出し、該算出された相対位置データに基づいて前記複数の対象静止画像を繋ぎ合わせるものとしてもよい。こうすれば、対象静止画像の重なりを、各々の対象静止画像の生成に用いられたフレーム画像について、それぞれ1つずつフレーム画像間の重なりを調べるため、対象静止画像間での相対的な位置関係データ算出処理の負荷を軽減できる。 The still image generation unit calculates relative positional relationship data between the frame images used for generating the target still image, and the plurality of target still images are calculated based on the calculated relative position data. It is good also as what connects. In this way, the relative position relationship between the target still images is determined in order to check the overlap between the target still images for each frame image used for generating each target still image. The load of data calculation processing can be reduced.
ここで、本発明の前記画像表示部は、前記対象静止画像の生成に用いられるフレーム画像について、前記単位動画像毎に少なくとも1つのフレーム画像の画像領域を、前記対象静止画像の画像領域内に所定の方法で識別表示するものとしてもよい。こうすれば、ユーザーは、所望する被写体が撮像された動画像を、表示された対象静止画像内の画像領域から容易に探すことができる。 Here, the image display unit of the present invention includes, for the frame image used for generating the target still image, an image area of at least one frame image for each unit moving image within the image area of the target still image. The identification display may be performed by a predetermined method. In this way, the user can easily search for a moving image in which a desired subject is captured from an image area in the displayed target still image.
さらに、前記画像表示部は、前記動画像抽出部により抽出された単位動画像を所定の表示方法を用いて表示部に再生表示するものとしてもよい。こうすれば、表示される動画像を見て、ユーザーは所望した被写体を撮像した動画像か否かを容易に確認することができる。 Furthermore, the image display unit may reproduce and display the unit moving image extracted by the moving image extraction unit on the display unit using a predetermined display method. In this way, the user can easily confirm whether or not the displayed moving image is a moving image obtained by capturing a desired subject.
本発明の画像処理方法は、撮像手段によって撮像された動画像を記憶または再生する画像処理方法であって、時系列に連続して撮像した動画像を1つの単位動画像として取得し記憶する工程と、前記単位動画像を構成するフレーム画像のうち、所定のフレーム画像を繋ぎ合わせた対象静止画像を生成し記憶する工程と、前記静止画像生成部が生成した対象静止画像を表示する工程と、入力装置から入力された画像位置を画像領域内に含むフレーム画像を前記表示された対象静止画像から抽出し、該抽出されたフレーム画像が属する単位動画像を前記記憶された単位動画像から抽出する工程と、を備えることを要旨とする。 The image processing method of the present invention is an image processing method for storing or reproducing a moving image captured by an imaging means, and acquiring and storing a moving image captured in time series as one unit moving image A step of generating and storing a target still image obtained by joining predetermined frame images among the frame images constituting the unit moving image, a step of displaying the target still image generated by the still image generation unit, A frame image including an image position input from the input device in an image area is extracted from the displayed target still image, and a unit moving image to which the extracted frame image belongs is extracted from the stored unit moving image. And a process.
また、本発明はコンピュータプログラムまたはそのプログラムを記録した記録媒体としてもよい。すなわち、撮像手段によって撮像された動画像を記憶または再生するコンピュータプログラムであって、時系列に連続して撮像した動画像を1つの単位動画像として、記憶部に該単位動画像の画像データを記憶する機能と、前記単位動画像を構成するフレーム画像のうち、所定のフレーム画像を繋ぎ合わせた対象静止画像を生成し、該生成した対象静止画像を記憶部に画像データとして記憶する機能と、前記生成された対象静止画像を表示部に表示する機能と、入力装置から入力された画像位置を画像領域内に含むフレーム画像を、前記表示された対象静止画像の画像データを読み出すことによって抽出し、該抽出されたフレーム画像が属する単位動画像を、前記記憶部に記憶された単位動画像データから読み出すことによって抽出する機能と、をコンピュータに実現させることを要旨とする。プログラムの記録媒体としては、フレキシブルディスクやCD−ROM、ICカード、パンチカードなど、コンピュータが読み取り可能な種々の媒体を利用することができる。 Further, the present invention may be a computer program or a recording medium recording the program. That is, a computer program for storing or reproducing a moving image captured by an imaging unit, wherein a moving image captured continuously in time series is set as one unit moving image, and image data of the unit moving image is stored in a storage unit. A function of storing, a function of generating a target still image obtained by connecting predetermined frame images among frame images constituting the unit moving image, and storing the generated target still image as image data in a storage unit; A function of displaying the generated target still image on a display unit and a frame image including an image position input from an input device in an image region are extracted by reading out image data of the displayed target still image. A function of extracting the unit moving image to which the extracted frame image belongs by reading out the unit moving image data stored in the storage unit , And summarized in that to realize the computer. As a recording medium for the program, various computer-readable media such as a flexible disk, a CD-ROM, an IC card, and a punch card can be used.
次に、本発明の実施の形態を説明する。 Next, an embodiment of the present invention will be described.
図1は本発明の一実施形態としての画像処理装置の概略構成を示す説明図である。この画像処理装置は、汎用のコンピュータを用いて構成され、コンピュータ100に情報を入力する装置としてのキーボード110およびマウス120と、情報を出力する装置としてのディスプレイ130およびビデオプロジェクタ180とを備えている。またコンピュータ100に動画像を入力する装置としてのデジタルビデオカメラ160、またコンピュータに動画像やアプリケーションプログラムを入力する装置としてのCD−R/RWドライブ140、DVD−R/RWドライブ150を備えている。またコンピュータ100にその他、必要に応じて、動画像やアプリケーションプログラムを記憶した記憶媒体からデータを読み出すことが可能な駆動装置を備えることもできる。
FIG. 1 is an explanatory diagram showing a schematic configuration of an image processing apparatus as an embodiment of the present invention. This image processing apparatus is configured using a general-purpose computer, and includes a
コンピュータ100は、所定のオペレーティングシステムの下で、記憶した動画像から取得したフレーム画像の画像データを用いて静止画像を生成したり表示したりするためのアプリケーションプログラムを実行することにより、後述のフローチャート(図2、図3、図7、図11)で示した処理を行う画像処理装置として機能する。アプリケーションプログラムは、例えばCD−ROMなどのコンピュータが読み取り可能な記録媒体によって外部から供給され、CD−R/RWドライブ140を介してコンピュータ100に備えられたハードディスクやRAMなどの半導体メモリ(いずれも図示せず)に記憶される。もとより、インターネットなどのネットワーク手段を介して、アプリケーションプログラムを供給するサーバー等にアクセスし、データをダウンロードすることによって記憶するものとしてもよい。
The
このアプリケーションプログラムが実行されることにより、コンピュータ100は、特に図1に示したように、動画像記憶部102、静止画像生成部103、画像表示部104、動画像抽出部105として機能する。
By executing the application program, the
各部はそれぞれ主として以下の処理を司る。動画像記憶部102は、コンピュータ100に入力した動画像について、時系列で連続する一連の動画像を単位動画像として、ハードディスクなどの記憶手段に記憶することによって取得する。静止画像生成部103は、取得された動画像を構成するフレーム画像から1つの対象静止画像を生成する。画像表示部104は、生成された対象静止画像を表示部となるディスプレイ130やビデオプロジェクタ180に表示する。動画像抽出部105は、表示された対象静止画像のうちでユーザーが指定した画像位置で特定される動画像を抽出する。
Each unit mainly performs the following processing. The moving
次に、本実施形態の画像処理装置が行う処理を、図2のフローチャートを用いて説明する。図2のフローチャートで示した各処理ステップにおいて、画像記憶部102がステップS10を、静止画像生成部103がステップS20からS40を、画像表示部104がステップS50を、動画像抽出部105がステップS60とS70を、それぞれ実行する。
Next, processing performed by the image processing apparatus of the present embodiment will be described with reference to the flowchart of FIG. In each processing step shown in the flowchart of FIG. 2, the
図2に示した処理が開始されると、まずステップS10にて、入力される動画像から単位動画像の取得処理を行う。ここで、本実施形態では、時系列で連続する一連の動画像を単位動画像として取得する。例えば、撮像された動画像に撮像時の時間データが付随して記録されている場合は、時間データが不連続となる動画像の画像位置を分割点とし、1つの分割点から次の分割点までの動画像を単位動画像として記憶手段に記憶する。あるいは、時間データが付随して記録されていない場合は、撮影シーンの切り替り位置を検出して、検出された1つの切り替り位置から次の切り替り位置までの撮影シーンを、単位動画像として記憶するものとしてもよい。撮影シーンの切り替り位置は、画面全体の平均輝度データが急に変化する位置を、動画像の画像データから検出する方法など、画像処理技術に関して周知の撮影シーン検出方法を用いればよい。 When the process shown in FIG. 2 is started, first, in step S10, a unit moving image is acquired from the input moving image. Here, in the present embodiment, a series of moving images that are continuous in time series are acquired as unit moving images. For example, when time data at the time of imaging is recorded with a captured moving image, the image position of the moving image where the time data is discontinuous is set as a dividing point, and one dividing point is changed to the next dividing point. The moving images up to are stored in the storage means as unit moving images. Alternatively, when the time data is not recorded, the switching position of the shooting scene is detected, and the shooting scene from one detected switching position to the next switching position is used as a unit moving image. It may be memorized. The shooting scene switching position may be a well-known shooting scene detection method related to image processing techniques, such as a method of detecting a position where the average luminance data of the entire screen changes suddenly from the image data of a moving image.
記憶方法は、本実施形態では、コンピュータ100のオペレーティングシステムのもとで動作するAVI(Audio Video Interleaved)など周知の動画像ファイルフォーマットを用いて記憶する。これによって、記憶された単位動画像を、ファイル名を指定することで抽出することができる。記憶方法は特にこれに限らず、後述する動画像の抽出処理に際して、特定された動画像を抽出できる記憶方法であれば何でもよい。
In this embodiment, the storage method is stored using a known moving image file format such as AVI (Audio Video Interleaved) that operates under the operating system of the
次にステップS20にて、取得した単位動画像から、対象静止画像を生成するためのフレーム画像の選択処理を行う。ここでの処理を図3のフローチャート及び図4、図5の模式図を用いて以下詳しく説明する。ステップS20が行う処理の目的は、単位動画像が撮像した被写体の全体画像領域に対して、表示する画像領域の範囲がおおよそ等しい対象静止画像を、少ない数のフレーム画像にて生成するため、取得したフレーム画像から所定のフレーム画像を抽出するために行う。こうすることで、対象静止画像の生成処理に関する負荷を軽減できる。 Next, in step S20, a frame image selection process for generating a target still image is performed from the obtained unit moving images. This process will be described in detail below with reference to the flowchart of FIG. 3 and the schematic diagrams of FIGS. The purpose of the processing performed in step S20 is to generate a target still image having a substantially equal range of image areas to be displayed with a small number of frame images with respect to the entire image area of the subject captured by the unit moving image. This is performed in order to extract a predetermined frame image from the obtained frame image. By doing so, it is possible to reduce the load related to the process of generating the target still image.
図3の処理が開始されると、まずステップS201にて単位動画像を構成しているフレーム画像を取得する。取得方法は、単位動画像からキャプチャし、識別番号を付随してコンピュータ100に備えられたハードディスクなどの記憶部に記憶することで行う。もとより、ステップS10(図2)にて単位動画像をファイルする際、フレーム画像を同時に記憶することとしてもよい。
When the processing of FIG. 3 is started, first, frame images constituting a unit moving image are acquired in step S201. The acquisition method is performed by capturing from a unit moving image and storing the identification number in a storage unit such as a hard disk provided in the
次に、ステップS202で、コンピュータ100に記憶することによって取得した複数のフレーム画像について、全てのフレーム画像間の相対的な位置関係データの算出処理を行う。この処理は、後述のステップS204にて行うフレーム画像の抽出に際して実施する基準フレーム画像との画像領域の重なりを調べるために、前もって行う処理である。着目したフレーム画像間での位置関係がわかれば、重なり量は容易に算出することができるからである。
Next, in step S202, the calculation processing of the relative positional relationship data between all the frame images is performed for the plurality of frame images acquired by storing in the
全てのフレーム画像の相対位置は、次に説明する2つのフレーム画像間での位置関係の算出処理を、記憶した複数のフレーム画像について実施して求める。本実施形態では、時系列で連続する2つのフレーム画像を1つずつずらしながら順次選択して相対位置を算出し、各フレーム画像の相対位置の算出を行う。 The relative positions of all the frame images are obtained by performing a positional relationship calculation process between two frame images, which will be described below, on a plurality of stored frame images. In this embodiment, two frame images continuous in time series are sequentially selected while being shifted one by one to calculate the relative position, and the relative position of each frame image is calculated.
2つのフレーム画像間における相対位置の算出処理について図4の説明図を用いて説明する。図4(a)と図4(b)は、フレーム画像間の相対位置を算出するためのフレーム画像G1とフレーム画像G2をそれぞれ示している。この例は、夕日を背景とする山の風景を左上から右下方向にパンをして撮像した動画像から取得したフレーム画像を想定したものである。撮像される画像間には、通常上下左右方向への並進ズレ、画面が傾く回転ズレ、ズームミングによる画像倍率違いが通常存在するが、このようなパンによって得られた2つのフレーム画像を想定した場合、両者の間では画面の傾きは極めて小さく、従って回転ズレはないものと仮定できる。また両者の間には画像倍率違いもないため並進ズレのみ存在する。この並進ズレは並進ベクトルとして求めることができる。 The relative position calculation process between two frame images will be described with reference to the explanatory diagram of FIG. FIG. 4A and FIG. 4B respectively show a frame image G1 and a frame image G2 for calculating a relative position between the frame images. This example assumes a frame image acquired from a moving image obtained by panning a mountain landscape against the sunset from the upper left to the lower right. There are usually translational shifts in the vertical and horizontal directions, rotational shifts that cause the screen to tilt, and image magnification differences due to zooming between the captured images. Two frame images obtained by such panning were assumed. In this case, it can be assumed that the inclination of the screen is extremely small between the two, and therefore there is no rotation shift. Also, there is no difference in image magnification between the two, so there is only a translational deviation. This translational deviation can be obtained as a translation vector.
並進ベクトルは、横方向と縦方向の画素数で表現することができ、画像のパターンマッチングや特徴点追跡といった周知の処理技術によって生成することが可能である。こうして生成された並進ベクトルから算出した相対位置データが、画面横(X)方向の画素数X2、画面縦(Y)方向の画素数Y2であれば、フレーム画像G1の画面左上隅C1を基準点(0,0)とした時、フレーム画像G2の画面左上隅C2は座標(X2,Y2)となる。この状態を図4(c)に示す。こうして、フレーム画像G1に対するフレーム画像G2の相対位置を算出する。 The translation vector can be expressed by the number of pixels in the horizontal direction and the vertical direction, and can be generated by a known processing technique such as image pattern matching or feature point tracking. If the relative position data calculated from the translation vector thus generated is the number of pixels X2 in the horizontal (X) direction of the screen and the number of pixels Y2 in the vertical (Y) direction of the screen, the upper left corner C1 of the screen of the frame image G1 is the reference point. When (0, 0) is set, the upper left corner C2 of the frame image G2 has coordinates (X2, Y2). This state is shown in FIG. Thus, the relative position of the frame image G2 with respect to the frame image G1 is calculated.
また、フレーム画像G1とフレーム画像G2との間で、回転ズレがあったり画像倍率が異なっていたりする場合は、例えばオプティカルフロー推定とパターンマッチングの組み合わせによって相対位置を算出することができる。オプティカルフロー推定には、種々の手法があり、たとえばグラディエント(gradient−based)法は、観測するフレーム画像間において対象の輝度が不変であるという仮定の下に、画像中における対象の濃度分布の空間勾配と時間勾配の関係を利用して撮影装置を基準とした被写体の移動を推定する。このオプティカルフロー推定の結果に基づいて、大まかに画像の並進移動や回転、ズーム倍率の変化を推定するとともに、この推定結果に基づいてフレーム画像G1とフレーム画像G2とを、回転ズレを補正した同じ倍率のフレーム画像になるように画像処理を行う。そして画像処理後のフレーム画像を新たにフレーム画像G1とフレーム画像G2として、この画像間でパターンマッチングを行うことによって相対位置を算出する。 Further, when there is a rotation shift or image magnification is different between the frame image G1 and the frame image G2, the relative position can be calculated by, for example, a combination of optical flow estimation and pattern matching. There are various optical flow estimation methods. For example, the gradient-based method is based on the assumption that the luminance of an object is invariable between observed frame images, and the density distribution space of the object in the image. Using the relationship between the gradient and the time gradient, the movement of the subject relative to the photographing apparatus is estimated. Based on the result of this optical flow estimation, roughly the translational movement and rotation of the image, and the change in the zoom magnification are estimated, and the frame image G1 and the frame image G2 are corrected based on the estimation result with the same rotational offset. Image processing is performed to obtain a frame image with a magnification. Then, the frame position after the image processing is newly set as the frame image G1 and the frame image G2, and the relative position is calculated by performing pattern matching between the images.
上述した2つのフレーム画像間における相対位置の算出処理を、ステップS201にて取得した全てのフレーム画像について実施することによって、全てのフレーム画像の相対的な位置関係を座標データとして算出し、処理ステップS202を終了して次の処理ステップS203へ進む。なお、本実施形態では、上述したように2つのフレーム画像間の相対的な位置関係データを、画像の重なり具合から算出するため、時系列で連続する2つのフレーム画像を順次選択することとした。これは、時系列で連続するフレーム画像間には通常大きい重なりが存在すると想定されるからである。もとより、少なくとも互いに画像の重なりが存在すると想定される2つのフレーム画像を順次選択して全てのフレーム画像の相対位置を算出してもよい。 By performing the relative position calculation process between the two frame images described above for all the frame images acquired in step S201, the relative positional relationship of all the frame images is calculated as coordinate data, and the processing step End S202 and proceed to the next processing step S203. In the present embodiment, as described above, the relative positional relationship data between two frame images is calculated from the degree of overlapping of the images, so that two consecutive frame images are sequentially selected. . This is because it is assumed that there is usually a large overlap between time-series continuous frame images. Of course, at least two frame images that are supposed to overlap each other may be sequentially selected to calculate the relative positions of all the frame images.
ステップS203では、取得したフレーム画像のうち、所定のフレーム画像を、基準フレーム画像として設定する処理を行う。設定する基準フレーム画像は、後述する対象静止画像を生成するためのフレーム画像(以降、これを「選択フレーム画像」と呼ぶ)を選択する基準となる。また同時に、基準フレーム画像は、一つ目の選択フレーム画像でもある。 In step S203, a process of setting a predetermined frame image among the acquired frame images as a reference frame image is performed. The reference frame image to be set serves as a reference for selecting a frame image (hereinafter referred to as “selected frame image”) for generating a target still image to be described later. At the same time, the reference frame image is also the first selected frame image.
本実施形態では、選択処理を速めるため、取得した時系列順で最初のフレーム画像をデフォルトで自動的に基準フレーム画像として設定する。もとより、ユーザーがキーボード110などから、付随して記憶された識別番号を指定することによって基準フレーム画像を設定することとしても差し支えない。
In this embodiment, in order to speed up the selection process, the first frame image in the acquired time series order is automatically set as a reference frame image by default. Of course, the user may set the reference frame image by designating the identification number stored along with the
次に、ステップS204にて、設定された基準フレーム画像と重なるフレーム画像の抽出処理を行う。ステップS204から以降の処理について、図5を参照して説明する。 In step S204, a frame image that overlaps the set reference frame image is extracted. Processing subsequent to step S204 will be described with reference to FIG.
図5(a)は、ステップS201で取得したフレーム画像を例示したもので、画面左から右方向にパンして山の風景を撮像した動画像から、時系列で取得した連続する4つのフレーム画像P1〜P4(P1〜P4はフレーム画像の識別番号)を、模式的に示した模式図である。ここでは説明を簡便にするため、等しい倍率で画面の傾きの無い4つのフレーム画像P1〜P4が取得されたものとする。また、図5(a)の例では、ステップS202にて算出した位置関係データから、フレーム画像P1の画面左上隅を原点(0,0)としたX,Y座標にて算出した各フレーム画像P2、P3、P4の相対位置が、それぞれ座標(X2,Y2)、(X3,Y3)、(X4,Y4)である状態を示した。なお、本実施形態については、基本的に図5(a)の模式図で示したフレーム画像が取得されたものとして、ステップS204とそれ以降の処理について説明を行う。 FIG. 5A illustrates the frame image acquired in step S201. Four consecutive frame images acquired in time series from a moving image obtained by panning from the left to the right of the screen and capturing a mountain landscape. It is the schematic diagram which showed typically P1-P4 (P1-P4 is an identification number of a frame image). Here, in order to simplify the explanation, it is assumed that four frame images P1 to P4 having the same magnification and no screen tilt are acquired. In the example of FIG. 5A, each frame image P2 calculated from the positional relationship data calculated in step S202 using X and Y coordinates with the upper left corner of the screen of the frame image P1 as the origin (0, 0). , P3, and P4 have a relative position of coordinates (X2, Y2), (X3, Y3), and (X4, Y4), respectively. In addition, about this embodiment, step S204 and the process after it are demonstrated on the assumption that the frame image shown by the schematic diagram of Fig.5 (a) was acquired.
次にステップS205で、ステップS203の処理によって設定された基準フレーム画像と重なるフレーム画像が存在するか否かを判定する。通常、時系列で連続する一連のフレーム画像間には重なりが存在するため、判定の結果、少なくとも1つ重なるフレーム画像が存在する(ステップS205:YES)。図5(a)に示した例では、基準フレーム画像であるフレーム画像P1と重なるフレーム画像として、フレーム画像P2とフレーム画像P3を抽出する。 In step S205, it is determined whether there is a frame image that overlaps the reference frame image set by the process in step S203. Usually, since there is an overlap between a series of consecutive frame images in time series, as a result of the determination, there is at least one overlapping frame image (step S205: YES). In the example shown in FIG. 5A, the frame image P2 and the frame image P3 are extracted as frame images that overlap the frame image P1 that is the reference frame image.
そして、ステップS206にて、抽出したフレーム画像が複数か否かを判定し、判定の結果、1つの場合は(ステップS206:NO)、抽出したフレーム画像を、選択フレーム画像として選択する。一方、判定の結果、抽出されたフレーム画像が複数の場合は(ステップS206:YES)、ステップS208に進み、基準フレーム画像との重なり領域が最も少ないフレーム画像を、選択フレーム画像として選択する。上述したステップS203〜S208までの処理が、請求項に記載の画像選択部に相当する。図5(b)は、基準フレーム画像P1と重なる2つのフレーム画像P2とP3のうち、重なり領域のより少ないフレーム画像P3を選択フレーム画像として選択した様子を示している。 In step S206, it is determined whether or not there are a plurality of extracted frame images. If the result is one (step S206: NO), the extracted frame image is selected as the selected frame image. On the other hand, if there are a plurality of extracted frame images as a result of the determination (step S206: YES), the process proceeds to step S208, and the frame image with the smallest overlapping area with the reference frame image is selected as the selected frame image. The processing from step S203 to S208 described above corresponds to the image selection unit described in the claims. FIG. 5B shows a state in which a frame image P3 having a smaller overlapping area is selected as a selected frame image from two frame images P2 and P3 that overlap the reference frame image P1.
重なり領域は、図5にて説明したように、各フレーム画像の画面左上隅座標位置と各フレーム画像の画面の大きさとを表す数値から、それらの数値の加減算によって容易に算出することができる。従って、本実施形態では、重なり領域の算出方法についての説明は省略する。 As described with reference to FIG. 5, the overlapping area can be easily calculated from numerical values representing the upper left corner coordinate position of each frame image and the screen size of each frame image by adding and subtracting those numerical values. Therefore, in this embodiment, the description about the overlapping area calculation method is omitted.
次のステップS209では、基準フレーム画像と、基準フレーム画像と重なりが存在する抽出されたフレーム画像を、新たに設定される基準フレーム画像と重なるフレーム画像の抽出処理に際して、フレーム画像の抽出対象から除外する処理を行う。こうすることで、同じフレーム画像が何度も抽出対象になることを回避し、選択フレーム画像の抽出処理を速めることができる。この処理が、請求項に記載の画像排除部に相当する。 In the next step S209, the reference frame image and the extracted frame image that overlaps with the reference frame image are excluded from the extraction target of the frame image when extracting the frame image that overlaps the newly set reference frame image. Perform the process. By doing so, it is possible to avoid the same frame image from being extracted many times and to speed up the extraction process of the selected frame image. This process corresponds to the image exclusion unit recited in the claims.
そして、次のステップS210にて、選択されたフレーム画像すなわち選択フレーム画像を新たに基準フレーム画像としてステップS204に戻り、再び、新たな基準フレーム画像と重なるフレーム画像を抽出する。 In the next step S210, the selected frame image, that is, the selected frame image is newly set as a reference frame image, and the process returns to step S204, and a frame image overlapping the new reference frame image is extracted again.
図5(c)に、新たな基準フレーム画像であるフレーム画像P3に対して、重なるフレーム画像P4が抽出された様子を示した。図中破線で示したフレーム画像P1とP2はフレーム画像P3と重なるフレーム画像であるが、フレーム画像P1は前の基準フレーム画像であり、フレーム画像P2は基準フレーム画像がフレーム画像P1のときに抽出されたフレーム画像であるため、上述したように抽出対象フレーム画像から除外されている。従って、重なるフレーム画像として抽出されない。 FIG. 5C shows a state in which an overlapping frame image P4 is extracted from the frame image P3 that is a new reference frame image. The frame images P1 and P2 indicated by broken lines in the figure are frame images that overlap the frame image P3, but the frame image P1 is the previous reference frame image, and the frame image P2 is extracted when the reference frame image is the frame image P1. As described above, the frame image is excluded from the extraction target frame image. Therefore, they are not extracted as overlapping frame images.
次にステップS205にて、新たに設定された基準フレーム画像と重なるフレーム画像が存在するか否かを判定する。そして、判定の結果、フレーム画像が存在しない場合は(NO)ここでの処理ルーチンを終了してステップS30(図2)へ戻る。新たに設定された基準フレーム画像と重なるフレーム画像が、前回の処理までに既に抽出されたフレーム画像のみであれば、ここでの処理ルーチンは終了することになる。 In step S205, it is determined whether there is a frame image that overlaps with the newly set reference frame image. If the result of determination is that there is no frame image (NO), the processing routine here is terminated and processing returns to step S30 (FIG. 2). If the frame image that overlaps the newly set reference frame image is only the frame image that has already been extracted by the previous process, the processing routine here ends.
一方、判定の結果、フレーム画像が存在する場合は、ステップS206以降の処理を再び実施し、選択されたフレーム画像を新たな基準フレーム画像として設定し直してステップS205までの処理を、ステップS205で重なるフレーム画像が存在しなくなるまで繰り返し行う。このステップS206からステップS205までの処理は、上記にて説明した処理と基本的に同じであるため説明を省略する。 On the other hand, if the result of determination is that there is a frame image, the processing from step S206 is executed again, the selected frame image is set again as a new reference frame image, and the processing up to step S205 is executed in step S205. Repeat until no overlapping frame images exist. Since the processing from step S206 to step S205 is basically the same as the processing described above, description thereof will be omitted.
こうして、ステップS205までの処理を繰り返し行った後、ステップS205による判定の結果、抽出されたフレーム画像が存在しなくなったとき(ステップS205:NO)、図3の処理を終了し、ステップS30(図2)へ戻る。図5の例では、選択フレーム画像として、最終的にフレーム画像P1、P3、P4が選択される。 In this way, after the processing up to step S205 is repeatedly performed, if the extracted frame image does not exist as a result of the determination in step S205 (step S205: NO), the processing in FIG. 3 is terminated, and step S30 (FIG. Return to 2). In the example of FIG. 5, the frame images P1, P3, and P4 are finally selected as the selected frame images.
次に、ステップS30にて、対象静止画像の記憶処理を行う。記憶方法は、コンピュータ100に備えられたハードディスクやRAMなどの半導体メモリ(図示せず)に、管理データとして記憶することで行う。管理データは、少なくとも選択フレーム画像の識別番号及び相対位置データと、選択フレーム画像が取得された単位動画像ファイルデータとから構成され、対象静止画像と関係付けて記憶する。
Next, in step S30, the target still image is stored. The storage method is performed by storing as management data in a semiconductor memory (not shown) such as a hard disk or RAM provided in the
図6は、本実施形態における記憶された対象静止画像の管理データを例示したもので、図5に示した単位動画像について、生成される対象静止画像の管理データを表している。管理データには、対象静止画像の名称「対象静止画像A」、対象静止画像に含まれる単位動画像の数「1」と、構成データとして単位動画像のファイル名「FILE1.AVI」、選択フレーム画像の数「3」、選択フレーム画像番号「選択フレーム画像P1、選択フレーム画像P3、選択フレーム画像P4」とそれぞれの選択フレーム画像間の相対位置座標「(0,0)、(X3、Y3)、(X4、Y4)」とが記憶されている。対象静止画像を、このような管理データとして記憶することで、後述するステップS60での処理(外部から指定された画像位置に対応した単位動画像の抽出処理)を容易にすることができる。 FIG. 6 illustrates the management data of the target still image stored in the present embodiment, and represents the management data of the target still image generated for the unit moving image shown in FIG. The management data includes the name of the target still image “target still image A”, the number of unit moving images “1” included in the target still image, the file name “FILE1.AVI” of the unit moving image as the configuration data, the selected frame The number of images “3”, the selected frame image number “selected frame image P1, selected frame image P3, selected frame image P4” and relative position coordinates “(0, 0), (X3, Y3) between the selected frame images , (X4, Y4) ”is stored. By storing the target still image as such management data, the processing in step S60 (extraction processing of a unit moving image corresponding to the image position designated from the outside) can be facilitated.
次に、ステップS40(図2)にて、複数の対象静止画像を繋ぎ合わせる処理を行う。通常ユーザーが撮影した画像には、時系列で連続する一連の画像、つまり単位動画像が複数存在する。これらの単位動画像を繋ぎ合わせて、1つの対象静止画像として生成することによって、それぞれの単位動画像が撮像した被写体の画像を、1つの対象静止画像として表示させることができる。 Next, in step S40 (FIG. 2), processing for joining a plurality of target still images is performed. Usually, an image taken by a user has a plurality of continuous images in time series, that is, a plurality of unit moving images. By connecting these unit moving images and generating them as one target still image, it is possible to display the subject image captured by each unit moving image as one target still image.
また、同時に、単位動画像から選択した選択フレーム画像の位置関係を、生成された対象静止画像に対する相対的な位置関係データとして算出し直すことによって、それぞれの選択フレーム画像の位置は、1つの対象静止画像について共通した座標データを有することになる。 At the same time, by recalculating the positional relationship of the selected frame image selected from the unit moving image as the relative positional relationship data with respect to the generated target still image, the position of each selected frame image becomes one target. The coordinate data common to the still images is provided.
対象静止画像の繋ぎ合わせ処理について、図7のフローチャート及び図8、図9を用いて詳しく説明する。 The processing for joining the target still images will be described in detail with reference to the flowchart of FIG. 7 and FIGS.
この処理が開始されると、まずステップS401にて繋ぎ合わせる2つの対象静止画像A、Bを選択する。本実施形態では、一方の選択された対象静止画像Aを図5(c)に例示した画像とし、他方の選択された対象静止画像Bを図8の模式図で示した画像として、以下対象静止画像の繋ぎ合わせ処理を説明する。 When this process is started, first, two target still images A and B to be joined are selected in step S401. In the present embodiment, one selected target still image A is the image illustrated in FIG. 5C, and the other selected target still image B is the image shown in the schematic diagram of FIG. Image joining processing will be described.
繋ぎ合わせ処理の説明の前に、図8に示した対象静止画像Bについて説明する。図8は、図5に示したフレーム画像P4の画像に写っている被写体の近傍から開始し、下方向へチルトによって風景を撮像した単位動画像を示している。図8(a)は、前述したステップS201(図3)と同様な処理によって、この単位動画像から時系列で取得した連続する4つのフレーム画像T1〜T4(T1〜T4はフレーム画像の識別番号)を模式的に示した模式図である。 Prior to the description of the joining process, the target still image B shown in FIG. 8 will be described. FIG. 8 shows a unit moving image that starts from the vicinity of the subject shown in the image of the frame image P4 shown in FIG. 5 and captures the landscape by tilting downward. FIG. 8A shows four consecutive frame images T1 to T4 (T1 to T4 are identification numbers of frame images) acquired in time series from this unit moving image by the same process as in step S201 (FIG. 3) described above. ) Is a schematic diagram schematically showing.
ここでは説明を簡便にするため、等しい倍率で画面の傾きの無い4つのフレーム画像T1〜T4が取得されたものとする。また、図8(a)の例では、前述のステップS202(図3)にて説明した処理と同様な処理によって算出した位置関係データから、フレーム画像T1の画面左上隅を原点(0,0)としたX,Y座標にて算出した各フレーム画像T2、T3、T4の相対位置が、それぞれ座標(X2b,Y2b)、(X3b,Y3b)、(X4b,Y4b)である状態を示した。 Here, in order to simplify the description, it is assumed that four frame images T1 to T4 having the same magnification and no screen tilt are acquired. In the example of FIG. 8A, the upper left corner of the screen of the frame image T1 is set to the origin (0, 0) from the positional relationship data calculated by the same process as that described in step S202 (FIG. 3). The relative positions of the frame images T2, T3, and T4 calculated using the X and Y coordinates are coordinates (X2b, Y2b), (X3b, Y3b), and (X4b, Y4b), respectively.
次に、図8(b)に、図2のステップS20と同様な処理によって、選択フレーム画像T1、T3、T4が選択された状態を示した。選択処理については前述した処理と基本的に同じであるため説明は省略する。この結果、対象静止画像Bは図6と同様な管理データによってコンピュータ100の記憶装置に、対象静止画像の名称「対象静止画像B」、対象静止画像に含まれる単位動画像の数「1」と、構成データとして単位動画像のファイル名「FILE2.AVI」、選択フレーム画像の数「3」、選択フレーム画像番号「選択フレーム画像T1、選択フレーム画像T3、選択フレーム画像T4」とそれぞれの選択フレーム画像間の相対位置座標「(X1B,Y1B)、(X3B、Y3B)、(X4B、Y4B)」とが記憶される(図示せず)。
Next, FIG. 8B shows a state in which the selected frame images T1, T3, and T4 are selected by the same process as in step S20 of FIG. Since the selection process is basically the same as the process described above, a description thereof will be omitted. As a result, the target still image B is stored in the storage device of the
それでは、以上説明した対象静止画像AとBを繋ぎ合わせる処理を説明する。次のステップS402で、対象静止画像Aを構成する選択フレーム画像を1つずつ順次選択する。ここでは時系列順にまず選択フレーム画像P1が選択され、順次選択フレーム画像P4まで選択するものとする。 Now, a process for joining the target still images A and B described above will be described. In the next step S402, the selected frame images constituting the target still image A are sequentially selected one by one. Here, it is assumed that the selection frame image P1 is first selected in time series order, and the selection frame image P4 is sequentially selected.
次に、ステップS403で、対象静止画像Bを構成する選択フレーム画像を1つずつ順次選択する。ここでも時系列順にまず選択フレーム画像T1が選択され、順次選択フレーム画像T4まで選択するものとする。 Next, in step S403, the selected frame images constituting the target still image B are sequentially selected one by one. Also in this case, it is assumed that the selected frame image T1 is first selected in chronological order, and the selection frame image T4 is sequentially selected.
次に、ステップS404にて、対象静止画像AとBからそれぞれ1つ選択された選択フレーム画像間での相対位置を算出する。本実施形態では、相対位置の算出方法は、図4を用いて説明した2つのフレーム画像間の相対位置算出処理によって行う。選択した2つの選択フレーム画像間に重なり部分が存在すると、上述したように画像のパターンマッチングや特徴点追跡といった周知の処理技術によって2つの画像間の位置関係は並進ベクトル、すなわち横方向(X)と縦方向(Y)の画素数の差分値として算出することができる。 Next, in step S404, the relative position between the selected frame images each selected from the target still images A and B is calculated. In this embodiment, the relative position calculation method is performed by the relative position calculation process between two frame images described with reference to FIG. If there is an overlapping portion between the two selected frame images, the positional relationship between the two images is a translation vector, that is, the horizontal direction (X) by a known processing technique such as image pattern matching or feature point tracking as described above. And the difference value between the number of pixels in the vertical direction (Y).
なお、画像のパターンマッチング処理に際して、通常、閾値を用いてマッチングしたか否かを判定する。従って、選択した2つの選択フレーム画像に、重なりが存在するか否かを判定するための基準となる閾値を適切な値に設定しておくことが好ましい。例えば、選択フレーム画像T1とT2のように、重なりの存在が既知である2つのフレーム画像間において設定したマッチング処理の閾値を、ステップS404において実施するマッチング処理の閾値として設定することとしてもよい。こうすれば、2つの選択フレーム画像間における画像の重なりを精度よく判定することができる。 In the image pattern matching process, it is usually determined whether or not matching is performed using a threshold value. Therefore, it is preferable to set an appropriate threshold value as a reference for determining whether or not there is an overlap between the two selected frame images. For example, the threshold value of the matching process set between two frame images that are known to be overlapped, such as the selected frame images T1 and T2, may be set as the threshold value of the matching process performed in step S404. In this way, it is possible to accurately determine the overlap of images between the two selected frame images.
次にステップS405にて、互いに重なる選択フレーム画像、つまり選択フレーム画像間の相対位置が算出された選択フレーム画像が存在するか否かを判定する。判定の結果、選択フレーム画像が存在しない場合は(NO)、対象静止画像Aと対象静止画像Bは重なりがないため繋ぎ合わせが不可であることをディスプレイ130に表示し(図示せず)、ここでの処理を終了する。 Next, in step S405, it is determined whether or not there are selection frame images that overlap each other, that is, selection frame images for which the relative positions between the selection frame images are calculated. If the selected frame image does not exist as a result of the determination (NO), the target still image A and the target still image B do not overlap and cannot be connected to each other on the display 130 (not shown). The process in is terminated.
一方、判定の結果、画像が重なる選択フレーム画像が存在する場合は(ステップS405:YES)、算出された選択フレーム画像間の相対位置に基づいて、対象静止画像A、B間の相対位置を算出する(ステップS406)。そして、相対位置の算出結果に従って、対象静止画像AとBとを繋ぎ合わせる処理を行い(ステップS407)、繋ぎ合わせた対象静止画像を新たに対象静止画像Aとする(ステップS408)。 On the other hand, if there is a selection frame image where the images overlap as a result of the determination (step S405: YES), the relative position between the target still images A and B is calculated based on the calculated relative position between the selection frame images. (Step S406). Then, in accordance with the calculation result of the relative position, processing for joining the target still images A and B is performed (step S407), and the joined target still image is newly set as the target still image A (step S408).
次にステップS409にて、新たな対象静止画像Aを構成する選択フレーム画像の相対位置を修正し管理データとして記憶する処理を行う。つまり、選択フレーム画像の相対位置を1つのフレーム画像を基準としたX、Y座標値に修正する処理を行うのである。こうすることで、構成する選択フレーム画像の相対位置を共通したX,Y座標系によって表示することになり、新たな対象静止画像Aに対して、各選択フレーム画像の位置を定めることができる。本実施形態では、選択フレーム画像P1を基準として各選択フレーム画像のX,Y座標値を修正することとする。もとより、任意の1つの選択フレーム画像を基準としても差し支えない。 In step S409, the relative position of the selected frame image constituting the new target still image A is corrected and stored as management data. That is, the process of correcting the relative position of the selected frame image to the X and Y coordinate values based on one frame image is performed. In this way, the relative positions of the selected selected frame images are displayed by a common X and Y coordinate system, and the position of each selected frame image can be determined with respect to a new target still image A. In the present embodiment, the X and Y coordinate values of each selected frame image are corrected using the selected frame image P1 as a reference. Of course, any one selected frame image may be used as a reference.
図9(a)に、対象静止画像AとBとを繋ぎ合わせる処理を行った後の新たな対象静止画像Aを例示する。新たな対象静止画像Aは、2つの単位動画像から選択された選択フレーム画像P1、P3、P4、T1、T3、T4によって構成される。また、図9(b)に、図9(a)に示した新たな対象静止画像Aの管理データを例示する。管理データには、対象静止画像の名称「対象静止画像A」、対象静止画像に含まれる単位動画像の数「2」と、構成データ1として単位動画像のファイル名「FILE1.AVI」、選択フレーム画像の数「3」、選択フレーム画像番号「選択フレーム画像P1、選択フレーム画像P3、選択フレーム画像P4」とそれぞれの相対位置座標「(0,0)、(X3、Y3)、(X4、Y4)」と、構成データ2として単位動画像のファイル名「FILE2.AVI」、選択フレーム画像の数「3」、選択フレーム画像番号「選択フレーム画像T1、選択フレーム画像T3、選択フレーム画像T4」とそれぞれの修正された相対位置座標「(X1B,Y1B)、(X3B、Y3B)、(X4B、Y4B)」とが記憶されている。
FIG. 9A illustrates a new target still image A after the processing for joining the target still images A and B is performed. The new target still image A is composed of selected frame images P1, P3, P4, T1, T3, and T4 selected from two unit moving images. FIG. 9B illustrates management data of the new target still image A illustrated in FIG. In the management data, the name of the target still image “target still image A”, the number of unit moving images included in the target still image “2”, and the file name “FILE1.AVI” of the unit moving image as the
以上で図7の対象静止画像の繋ぎ合わせ処理を終了し、ステップS50へ戻る。なお、繋ぎ合わせる対象静止画像が更に存在する場合は、存在する対象静止画像から順次1つの対象静止画像を選択して、上述した2つの対象静止画像の繋ぎ合わせ処理を繰り返し実施することによって、存在する全ての対象静止画像の繋ぎ合わせ処理を行う。 Thus, the process for joining the target still images in FIG. 7 ends, and the process returns to step S50. If there are more target still images to be joined together, the target still images are selected from the existing target still images in order, and the above-described joining processing of the two target still images is repeatedly performed. All target still images to be joined are processed.
次のステップS50にて、繋ぎ合わせた対象静止画像Aを表示部に表示する処理を行う。本実施形態では、ディスプレイ130に表示するものとする。もとよりビデオプロジェクタ180やコンピュータ100の外部に備えられた表示部に表示するものとしてもよい。対象静止画像Aを表示することによって、撮影した被写体のおおよそ全体の画像を、1つの画面にて表示することになり、ユーザーは、全体の画像を見て、所望する被写体が写った画像を指定することができる。
In the next step S50, a process of displaying the connected target still images A on the display unit is performed. In this embodiment, it is displayed on the
図10は、ディスプレイ130に表示した対象静止画像Aを例示した模式図である。本実施形態では、対象静止画像Aを全て含む最も小さい矩形の静止画像をディスプレイ130に表示することとした。従って、図中網掛け部で示した画像領域Nは、対象静止画像が存在しない画像領域である。本実施形態では、この画像領域Nについては黒色を表示することとし、選択フレーム画像の画像データと相対位置座標、及び黒色の画像データを用いて矩形の静止画像の画像データを生成する。もとより、画像領域Nの表示色は、対象静止画像の表示画像領域と区別できる色であれば何でも良い。
FIG. 10 is a schematic view illustrating the target still image A displayed on the
次に判定ステップS60で、外部から画像位置が指定されたか否かを判定する。判定の結果、外部から指定された画像位置が無い場合は(NO)全ての処理を終了する。判定の結果、外部から指定された画像位置がある場合は(YES)、次のステップS70に進む。 Next, in determination step S60, it is determined whether or not an image position is designated from the outside. As a result of the determination, if there is no image position designated from the outside (NO), all the processes are terminated. As a result of the determination, if there is an externally designated image position (YES), the process proceeds to the next step S70.
本実施形態では、外部からの指定をユーザーが行うものとした。ユーザーはディスプレイ130に表示された対象静止画像Aを見て、所望する被写体が写った単位動画像を観賞したい場合、マウス120を用いてポインタ(図示せず)を該当する被写体が写った画像位置に合わせ、マウスをクリックして画像位置を指定する。一方、観賞しないときなど画像位置を指定しない場合、ユーザーはディスプレイ130に設けられたアイコンをクリックして、指定する画像位置がないことを入力するものとする。
In the present embodiment, it is assumed that the user performs designation from the outside. When the user looks at the target still image A displayed on the
次に、ステップS60にて、外部から指定された画像位置に対応した単位動画像の抽出処理を行う。ここでの処理について、図11のフローチャートおよび図12の模式図を用いて説明する。 Next, in step S60, unit moving image extraction processing corresponding to the image position designated from the outside is performed. This process will be described with reference to the flowchart of FIG. 11 and the schematic diagram of FIG.
ここでの処理が開始されると、まずステップS701にて、外部から指定された画像位置の取得処理を行う。本実施形態では、表示した矩形の静止画像の画像データと、クリック時のポインタの画像位置に対応した画像データとから、クリック位置を対象静止画像Aの管理データ上でのX,Y座標値に置き換えることによって取得する。図12(a)は、対象静止画像Aの画像領域においてユーザーが指定した画像位置Sの座標が対象静止画像において(Xs、Ys)である状態を例示したものである。 When the process is started, first, in step S701, an externally designated image position is acquired. In the present embodiment, the click position is changed to the X and Y coordinate values on the management data of the target still image A from the image data of the displayed rectangular still image and the image data corresponding to the image position of the pointer at the time of clicking. Get by replacing. FIG. 12A illustrates a state where the coordinates of the image position S designated by the user in the image region of the target still image A are (Xs, Ys) in the target still image.
次に、ステップS702にて、指定された画像位置S(Xs,Ys)を画像領域に含む選択フレーム画像を抽出する処理を行う。ステップS409(図7)にて記憶された対象静止画像Aの管理データ(図9(b))を参照し、選択フレーム画像のX,Y座標値と指定された画像位置SのX,Y座標値を用いて、該当する選択フレーム画像を抽出する。 Next, in step S702, a process of extracting a selected frame image including the designated image position S (Xs, Ys) in the image area is performed. With reference to the management data (FIG. 9B) of the target still image A stored in step S409 (FIG. 7), the X and Y coordinate values of the selected frame image and the X and Y coordinates of the designated image position S The corresponding selected frame image is extracted using the value.
具体的には、選択フレーム画像の画面横の長さをW、画面縦の長さをHとしたとき、X座標値、Y座標値が次式(1)、(2)を満たす選択フレーム画像を抽出する。
Xs−W≦X≦Xs…(1)
Ys−H≦Y≦Ys…(2)
図12(b)に、抽出した選択フレーム画像が、選択フレーム画像P4と選択フレーム画像T1の2つである様子を示した。
Specifically, when the horizontal length of the selected frame image is W and the vertical length of the screen is H, the selected frame image in which the X coordinate value and the Y coordinate value satisfy the following expressions (1) and (2) To extract.
Xs−W ≦ X ≦ Xs (1)
Ys−H ≦ Y ≦ Ys (2)
FIG. 12B shows a state in which the extracted selection frame images are two of the selection frame image P4 and the selection frame image T1.
そして、次のステップS703にて、抽出した選択フレーム画像が属する単位動画像を抽出する処理を行う。前のステップS702と同様に、対象静止画像Aの管理データを参照して、選択フレーム画像を構成データとして有する単位動画像ファイルを特定することによって抽出する。図12(b)の例では、単位動画像ファイルFILE1.AVIとFILE2.AVIが抽出される。 In the next step S703, a process of extracting a unit moving image to which the extracted selected frame image belongs is performed. Similar to the previous step S702, referring to the management data of the target still image A, the unit moving image file having the selected frame image as the configuration data is specified and extracted. In the example of FIG. 12B, the unit moving image file FILE1. AVI and FILE2. AVI is extracted.
次に、ステップS704にて抽出された単位動画像は存在するか否かを判定する。判定の結果、単位動画像が存在しない場合は(NO)、単位動画像が無いことをディスプレイ130に表示する(ステップS705)。この処理は、ユーザーが、対象静止画像Aの画像領域外(図10における画像領域N)をクリックした場合を想定したものである。 Next, it is determined whether or not the unit moving image extracted in step S704 exists. If no unit moving image exists as a result of the determination (NO), the absence of unit moving image is displayed on the display 130 (step S705). This process assumes that the user clicks outside the image area of the target still image A (image area N in FIG. 10).
判定の結果、単位動画像が存在する場合は(ステップS704:YES)、次の判定ステップS706にて、存在する単位動画像が複数あるか否かを判定する。判定の結果、単位動画像が複数でなく1つの場合は(NO)、ここでの処理を終了し、ステップS70(図2)へ進む。一方、判定の結果、単位動画像が複数存在する場合は(ステップS706:YES)、次にステップS707に進む。 If the unit moving image exists as a result of the determination (step S704: YES), it is determined in the next determination step S706 whether there are a plurality of unit moving images. As a result of the determination, if there is one unit moving image instead of a plurality (NO), the processing here is terminated and the process proceeds to step S70 (FIG. 2). On the other hand, if it is determined that there are a plurality of unit moving images (step S706: YES), the process proceeds to step S707.
ステップS707では、単位動画像の選択処理を行う。詳しくは、単位動画像の識別表示とユーザー選択の単位動画像の認識処理を行うのである。 In step S707, unit moving image selection processing is performed. Specifically, the unit moving image identification display and the user-selected unit moving image recognition process are performed.
この処理の開始に伴ってディスプレイ130に複数の単位動画像を識別した識別表示を表示し、ユーザーがキーボード110やマウス120を用いて、識別表示に従って所望する単位動画像を指定することによって選択する。識別表示としては、例えば上述の画像位置Sをクリックしたとき、単位動画像ファイル名をポップアップメニュー(図示せず)にて表示することとしてもよい。あるいは、図12(b)に示したように、画像位置Sを画像領域内に含む選択フレーム画像を「枠」によって表示することによって複数の単位動画像の存在を表示し、この「枠」をクリックすることとしてもよい。この場合、それぞれ異なる枠の色を用いると識別が容易となり更によい。以上の処理を行うことによって単位動画像の抽出処理ルーチンを終了し、ステップS80(図2)へ戻る。
With the start of this process, an identification display that identifies a plurality of unit moving images is displayed on the
次のステップS80では、こうして抽出したユーザーが所望する被写体を撮像した単位動画像を再生する処理を行う。再生は記憶された単位動画像ファイルから画像データを読み出し、単位動画像を表示する表示装置に合わせた画像信号に信号変換し、この画像信号を出力することによって行う。信号変換は、コンピュータ100に内蔵または外部接続された信号変換装置(いずれも図示せず)によって行う。
In the next step S80, a process of reproducing the unit moving image obtained by imaging the subject desired by the user thus extracted is performed. Reproduction is performed by reading out image data from the stored unit moving image file, converting the signal into an image signal suitable for a display device that displays the unit moving image, and outputting the image signal. The signal conversion is performed by a signal conversion device (both not shown) built in or externally connected to the
本実施形態では、単位動画像をディスプレイ130の所定の位置に再生表示するものとした。単位動画像の表示位置は、ステップS702(図11)にて抽出した選択フレーム画像の位置としてもよいし、ディスプレイ130に設けた再生用の表示エリアとしてもよい。もとより、ユーザーがマウス120のドラッグ操作によって作成した表示エリアとしてもよい。
In the present embodiment, the unit moving image is reproduced and displayed at a predetermined position on the
以上の処理を行うことによって、本実施形態での画像処理装置の処理を終了する。 By performing the above processing, the processing of the image processing apparatus in this embodiment is completed.
上述したように、本実施形態によれば、撮像した複数の単位動画像を1つの対象静止画像として表示し、表示した対象静止画像のそれぞれの画像位置に関係付けて、対応する単位動画像を画像ファイルとして記憶することができる。従って、ユーザーは、撮像した複数の単位動画像を、1つの画像ファイルとして記憶保存することも可能となる。例えば、会議風景全体と会議参加者の発言シーンを撮像した単位動画像を本実施形態によって1つの画像ファイルとすることによって、会議風景全体の画像から会議参加者の画像位置をクリックすると、その画像位置に発言シーンが動画像として再生表示されるといった使い方が可能となる。 As described above, according to the present embodiment, a plurality of captured unit moving images are displayed as one target still image, and the corresponding unit moving image is associated with each image position of the displayed target still image. It can be stored as an image file. Therefore, the user can also store and save a plurality of captured unit moving images as one image file. For example, by making a unit moving image that captures the entire conference landscape and the speech scenes of the conference participants into one image file according to the present embodiment, clicking on the image location of the conference participants from the entire conference landscape image It is possible to use such that a comment scene is reproduced and displayed as a moving image at a position.
以上、本発明の一実施形態を説明したが、本発明はこうした実施の形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内において様々な形態で実施し得ることは勿論である。 As mentioned above, although one embodiment of the present invention has been described, the present invention is not limited to such an embodiment, and can of course be implemented in various forms without departing from the spirit of the present invention. is there.
第1変形例として、前記実施形態では、対象静止画像を生成するためフレーム画像の選択処理を行ったが(図2、ステップS20)、別の方法としてもよい。例えば、単位動画像を構成する全てのフレーム画像を用いて対象静止画像を生成するものとしてもよい。こうすれば、対象静止画像の生成に伴う画像処理の負荷は増えるものの、撮像した全ての被写体の画像を対象静止画像に表示することができる。あるいは、フレーム画像の選択処理の負荷を軽減するため、時系列順に所定の時間間隔でフレーム画像を選択したり、所定の枚数間隔でフレーム画像を選択したりすることとしてもよい。 As a first modification, in the embodiment, the frame image selection process is performed to generate the target still image (FIG. 2, step S20), but another method may be used. For example, the target still image may be generated using all the frame images constituting the unit moving image. In this way, although the image processing load associated with the generation of the target still image increases, all the captured images of the subject can be displayed on the target still image. Alternatively, in order to reduce the load of the frame image selection process, the frame images may be selected at predetermined time intervals in time-series order, or the frame images may be selected at predetermined number intervals.
また第2変形例として、前記実施形態では、対象静止画像の表示処理(図2、ステップS50)において対象静止画像のみを表示したが、対象静止画像を構成する選択フレーム画像のうち、所定の選択フレーム画像も識別表示することとしてもよい。こうすれば、ユーザーは、対象静止画像のうち識別表示された選択フレーム画像を見て、画像位置Sを指定することができる。この結果、ユーザーが所望する被写体を撮像した単位動画像を適切に抽出することができる。 As a second modification, in the embodiment, only the target still image is displayed in the target still image display process (FIG. 2, step S50), but a predetermined selection is selected from the selection frame images constituting the target still image. A frame image may also be identified and displayed. In this way, the user can designate the image position S by looking at the selected frame image identified and displayed among the target still images. As a result, it is possible to appropriately extract a unit moving image obtained by imaging a subject desired by the user.
識別表示する所定の選択フレーム画像は、例えば、図13(a)に例示したように、各単位動画像に属する時系列順で最初の選択フレーム画像、すなわち選択フレーム画像P1と選択フレーム画像T1としてもよい。もとより時系列順で最後の選択フレーム画像でもよいし、時系列順でほぼ中央の選択フレーム画像としてもよい。あるいは、図13(b)に例示したように、各単位動画像に属する全ての選択フレーム画像を識別表示するもこととしてもよい。こうすれば、ユーザーは、表示した対象静止画像のうち、1つの単位動画像が撮像した被写体の画像範囲を容易に確認できる。 The predetermined selection frame images to be identified and displayed are, for example, as shown in FIG. 13A, the first selection frame images belonging to each unit moving image in the time series order, that is, the selection frame image P1 and the selection frame image T1. Also good. Of course, it may be the last selected frame image in chronological order, or may be the substantially selected frame image in chronological order. Alternatively, as illustrated in FIG. 13B, all selected frame images belonging to each unit moving image may be identified and displayed. In this way, the user can easily confirm the image range of the subject captured by one unit moving image among the displayed target still images.
さらに、第3変形例として、選択フレーム画像を識別表示する際、選択フレーム画像が属する単位動画像に付随する所定の情報を表示することとしてもよい。所定の情報としては、例えば、図13(c)に例示したように、単位動画像のファイル名としてもよい。あるいは、単位動画像が撮像された時間情報や、パンやチルト、ズーム、固定などの撮像方法についての情報としてもよい。こうすれば、ユーザーは、識別表示した選択フレーム画像から所望する被写体が撮像された単位動画像を適切に選択することができる。 Furthermore, as a third modification, when the selected frame image is identified and displayed, predetermined information accompanying the unit moving image to which the selected frame image belongs may be displayed. As the predetermined information, for example, as illustrated in FIG. 13C, the file name of the unit moving image may be used. Or it is good also as the information about the imaging methods, such as the time information when the unit moving image was imaged, pan, tilt, zoom, fixation. In this way, the user can appropriately select a unit moving image in which a desired subject is captured from the selected and displayed selection frame image.
また、第4変形例として、本実施形態における画像処理装置は、汎用のコンピュータで構成するようにしたが、本発明はこれに限定されるものでなく、モバイルコンピュータやワークステーションなどで構成するようにしてもよい。あるいは、コンピュータとしての機能を有するデジタルカメラやビデオカメラ、DVDプレーヤ、ビデオプロジェクタ、携帯電話など種々の機器において本発明の画像処理装置を構成するようにしてもよい。 As a fourth modification, the image processing apparatus in the present embodiment is configured by a general-purpose computer. However, the present invention is not limited to this, and is configured by a mobile computer, a workstation, or the like. It may be. Alternatively, the image processing apparatus of the present invention may be configured in various devices such as a digital camera having a function as a computer, a video camera, a DVD player, a video projector, and a mobile phone.
100…コンピュータ、102…動画像記憶部、103…静止画像生成部、104…画像表示部、105…動画像抽出部、110…キーボード、120…マウス、130…表示部としてのディスプレイ、140…CD−R/RWドライブ、150…DVD−R/RWドライブ、160…デジタルビデオカメラ、180…表示部としてのビデオプロジェクタ、P1〜P4…単位動画像から取得されたフレーム画像、T1〜T4…他の単位動画像から取得されたフレーム画像、G1…フレーム画像、G2…フレーム画像、A…対象静止画像、N…対象静止画像でフレーム画像以外の画像領域、S…指定された画像位置。
DESCRIPTION OF
Claims (11)
時系列に連続して撮像した動画像を1つの単位動画像として取得し記憶する動画像記憶部と、
前記単位動画像を構成するフレーム画像のうち、所定のフレーム画像を繋ぎ合わせた対象静止画像を生成し記憶する静止画像生成部と、
前記静止画像生成部が生成した対象静止画像を表示部に表示する画像表示部と、
入力装置から入力された画像位置を画像領域内に含むフレーム画像を、前記表示された対象静止画像から抽出し、該抽出されたフレーム画像が属する単位動画像を前記記憶された単位動画像から抽出する動画像抽出部と、
を備えた画像処理装置。 An image processing apparatus for storing or reproducing a moving image captured by an imaging unit,
A moving image storage unit that acquires and stores moving images captured continuously in time series as one unit moving image;
Among the frame images constituting the unit moving image, a still image generation unit that generates and stores a target still image obtained by connecting predetermined frame images;
An image display unit for displaying a target still image generated by the still image generation unit on a display unit;
A frame image including an image position input from the input device in an image region is extracted from the displayed target still image, and a unit moving image to which the extracted frame image belongs is extracted from the stored unit moving image. A moving image extraction unit to
An image processing apparatus.
前記静止画像生成部は、
前記単位動画像を構成するフレーム画像のうち所定の1つを基準フレーム画像として設定し、該設定された基準フレーム画像と互いに画像が重なるフレーム画像を抽出したのち、該抽出したフレーム画像のうち前記基準フレーム画像との重なり部分が最も少ないフレーム画像を選択する画像選択部と、
前記画像選択部がフレーム画像を抽出するとき、前記画像選択部によって既に基準フレーム画像として設定されたフレーム画像と既に抽出されたフレーム画像とを、フレーム画像の抽出対象から除外する画像排除部とを備え、
前記画像選択部が選択したフレーム画像を繋ぎ合わせた対象静止画像を生成し記憶する画像処理装置。 The image processing apparatus according to claim 1,
The still image generation unit
A predetermined one of the frame images constituting the unit moving image is set as a reference frame image, a frame image that overlaps the set reference frame image is extracted, and then the extracted frame image An image selection unit that selects a frame image with the smallest overlapping portion with the reference frame image;
When the image selection unit extracts a frame image, an image exclusion unit that excludes the frame image that has already been set as a reference frame image by the image selection unit and the frame image that has already been extracted from the extraction target of the frame image. Prepared,
An image processing apparatus that generates and stores a target still image obtained by joining frame images selected by the image selection unit.
前記静止画像生成部は、前記対象静止画像の生成に用いられるフレーム画像について、前記対象静止画像に対する相対的な位置関係を算出し、該算出された相対位置データを付随して前記フレーム画像を記憶する画像処理装置。 The image processing apparatus according to claim 1, wherein:
The still image generation unit calculates a relative positional relationship with respect to the target still image for the frame image used for generation of the target still image, and stores the frame image accompanied with the calculated relative position data. An image processing apparatus.
前記静止画像生成部は、前記フレーム画像の記憶に際して、該フレーム画像が属する前記単位動画像と関係付けて前記フレーム画像を記憶する画像処理装置。 The image processing apparatus according to claim 3,
The still image generation unit is an image processing apparatus that stores the frame image in association with the unit moving image to which the frame image belongs when the frame image is stored.
前記静止画像生成部は、生成された対象静止画像が複数存在する場合、該複数の対象静止画像を繋ぎ合わせた画像を、新たに対象静止画像として生成する画像処理装置。 An image processing apparatus according to any one of claims 1 to 4,
When there are a plurality of generated target still images, the still image generation unit is an image processing apparatus that newly generates an image obtained by joining the plurality of target still images as a target still image.
前記静止画像生成部は、前記対象静止画像の生成に用いられるフレーム画像間での相対的な位置関係データを算出し、該算出された相対位置データに基づいて前記複数の対象静止画像を繋ぎ合わせる画像処理装置。 The image processing apparatus according to claim 5,
The still image generation unit calculates relative positional relationship data between frame images used for generating the target still image, and connects the plurality of target still images based on the calculated relative position data. Image processing device.
前記画像表示部は、前記対象静止画像の生成に用いられるフレーム画像について、前記単位動画像毎に少なくとも1つのフレーム画像の画像領域を、前記対象静止画像の画像領域内に所定の方法で識別表示する画像処理装置。 The image processing apparatus according to any one of claims 1 to 6,
The image display unit identifies and displays an image area of at least one frame image for each unit moving image in a predetermined method within the image area of the target still image for the frame image used for generating the target still image. An image processing apparatus.
前記画像表示部は、前記動画像抽出部により抽出された単位動画像を所定の表示方法を用いて表示部に再生表示する画像処理装置。 An image processing apparatus according to any one of claims 1 to 7,
The image display device is an image processing device that reproduces and displays a unit moving image extracted by the moving image extraction unit on a display unit using a predetermined display method.
時系列に連続して撮像した動画像を1つの単位動画像として取得し記憶する工程と、
前記単位動画像を構成するフレーム画像のうち、所定のフレーム画像を繋ぎ合わせた対象静止画像を生成し記憶する工程と、
前記静止画像生成部が生成した対象静止画像を表示する工程と、
入力装置から入力された画像位置を画像領域内に含むフレーム画像を、前記表示された対象静止画像から抽出し、該抽出されたフレーム画像が属する単位動画像を前記記憶された単位動画像から抽出する工程と、
を備える画像処理方法。 An image processing method for storing or reproducing a moving image captured by an imaging unit,
Acquiring and storing a moving image continuously captured in time series as one unit moving image;
Generating and storing a target still image obtained by joining predetermined frame images among the frame images constituting the unit moving image;
Displaying the target still image generated by the still image generation unit;
A frame image including an image position input from the input device in an image region is extracted from the displayed target still image, and a unit moving image to which the extracted frame image belongs is extracted from the stored unit moving image. And a process of
An image processing method comprising:
時系列に連続して撮像した動画像を1つの単位動画像として、記憶部に該単位動画像の画像データを記憶する機能と、
前記単位動画像を構成するフレーム画像のうち、所定のフレーム画像を繋ぎ合わせた対象静止画像を生成し、該生成した対象静止画像を記憶部に画像データとして記憶する機能と、
前記生成された対象静止画像を表示部に表示する機能と、
入力装置から入力された画像位置を画像領域内に含むフレーム画像を、前記表示された対象静止画像の画像データを読み出すことによって抽出し、該抽出されたフレーム画像が属する単位動画像を、前記記憶部に記憶された単位動画像データから読み出すことによって抽出する機能と、
をコンピュータに実現させるための画像処理プログラム。 A computer program for storing or reproducing a moving image captured by an imaging means,
A function of storing, as a unit moving image, a moving image captured continuously in time series, and storing image data of the unit moving image in a storage unit;
A function of generating a target still image obtained by connecting predetermined frame images among frame images constituting the unit moving image, and storing the generated target still image as image data in a storage unit;
A function of displaying the generated target still image on a display unit;
A frame image including an image position input from an input device in an image region is extracted by reading out image data of the displayed target still image, and a unit moving image to which the extracted frame image belongs is stored in the memory A function of extracting by reading from the unit moving image data stored in the unit,
An image processing program for realizing a computer.
A computer-readable recording medium on which the image processing program according to claim 10 is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004062305A JP2005252803A (en) | 2004-03-05 | 2004-03-05 | Apparatus, method, and program for image processing and recording medium with the program stored |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004062305A JP2005252803A (en) | 2004-03-05 | 2004-03-05 | Apparatus, method, and program for image processing and recording medium with the program stored |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005252803A true JP2005252803A (en) | 2005-09-15 |
Family
ID=35032854
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004062305A Withdrawn JP2005252803A (en) | 2004-03-05 | 2004-03-05 | Apparatus, method, and program for image processing and recording medium with the program stored |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005252803A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008306355A (en) * | 2007-06-06 | 2008-12-18 | Nippon Telegr & Teleph Corp <Ntt> | Image reproduction processing device, image reproduction processing method, program, and recording medium |
JP2009033392A (en) * | 2007-07-26 | 2009-02-12 | Morpho Inc | Panoramic-image generator and program |
JP2012060309A (en) * | 2010-09-07 | 2012-03-22 | Casio Comput Co Ltd | Imaging apparatus, imaging method, and program |
US9876963B2 (en) | 2013-09-03 | 2018-01-23 | Casio Computer Co., Ltd. | Moving image generation system that generates one moving image by coupling a plurality of moving images |
-
2004
- 2004-03-05 JP JP2004062305A patent/JP2005252803A/en not_active Withdrawn
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008306355A (en) * | 2007-06-06 | 2008-12-18 | Nippon Telegr & Teleph Corp <Ntt> | Image reproduction processing device, image reproduction processing method, program, and recording medium |
JP2009033392A (en) * | 2007-07-26 | 2009-02-12 | Morpho Inc | Panoramic-image generator and program |
US8588546B2 (en) | 2007-07-26 | 2013-11-19 | Morpho, Inc. | Apparatus and program for producing a panoramic image |
JP2012060309A (en) * | 2010-09-07 | 2012-03-22 | Casio Comput Co Ltd | Imaging apparatus, imaging method, and program |
US9876963B2 (en) | 2013-09-03 | 2018-01-23 | Casio Computer Co., Ltd. | Moving image generation system that generates one moving image by coupling a plurality of moving images |
US10536648B2 (en) | 2013-09-03 | 2020-01-14 | Casio Computer Co., Ltd. | Moving image generation system that generates one moving image by coupling a plurality of moving images |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3457683B1 (en) | Dynamic generation of image of a scene based on removal of undesired object present in the scene | |
JP6167703B2 (en) | Display control device, program, and recording medium | |
US20100238325A1 (en) | Image processor and recording medium | |
JP2009071375A (en) | Imaging apparatus and image processing program | |
JP6610535B2 (en) | Image processing apparatus and image processing method | |
JP2008198082A (en) | Image processing method, image processing apparatus, and digital camera | |
JP6061502B2 (en) | Image processing apparatus, image processing method, and program | |
JP4605458B2 (en) | Image processing apparatus and image processing program | |
JP6261205B2 (en) | Image processing device | |
JP6700813B2 (en) | Image processing device, imaging device, image processing method, and program | |
JP5268025B2 (en) | Imaging device | |
JP2006293783A (en) | Image processing device and image processing program | |
JP2011155477A (en) | Video processing apparatus, video processing method, and program | |
JP5220567B2 (en) | IMAGING DEVICE AND IMAGING DEVICE PROGRAM | |
JP2005252803A (en) | Apparatus, method, and program for image processing and recording medium with the program stored | |
JP2010068193A (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP2005275765A (en) | Image processor, image processing method, image processing program and recording medium recording the program | |
JP3325823B2 (en) | Video still image display method and apparatus, and video still image display program storage recording medium | |
JP6443505B2 (en) | Program, display control apparatus, and display control method | |
JP2005217721A (en) | Apparatus and method for generating still picture | |
JP6579925B2 (en) | Image reproducing apparatus, control method therefor, program, and recording medium | |
JP2005217902A (en) | Image processing apparatus and image processing method | |
JP2006050076A (en) | Method and program for selecting representative image of video image | |
JP2012133459A (en) | Apparatus, method and program for estimating image, and computer-readable recording medium storing the program | |
JP4227638B2 (en) | Image processing apparatus and method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070605 |