JP2013191963A - Image processing device and control method therefor - Google Patents
Image processing device and control method therefor Download PDFInfo
- Publication number
- JP2013191963A JP2013191963A JP2012055626A JP2012055626A JP2013191963A JP 2013191963 A JP2013191963 A JP 2013191963A JP 2012055626 A JP2012055626 A JP 2012055626A JP 2012055626 A JP2012055626 A JP 2012055626A JP 2013191963 A JP2013191963 A JP 2013191963A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image processing
- recognition time
- images
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 49
- 230000008569 process Effects 0.000 claims description 36
- 239000000463 material Substances 0.000 abstract description 67
- 238000001514 detection method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
Description
本発明は動画及び静止画を含む画像の編集に関する画像処理装置およびその制御方法に関する。 The present invention relates to an image processing apparatus for editing an image including a moving image and a still image, and a control method thereof.
近年、家庭用デジタルビデオカメラの普及に加え、デジタル一眼レフカメラに動画撮影機能が追加されるなど、動画を撮影するデジタル機器が増加している。
従来、撮影した動画や静止画等の素材映像を集めて編集する場合、映像制作経験の少ない人が作った映像では、出来上がる映像が単調なものとなっている。これはプロが用いる映像技法もしくは映像文法と呼ばれる映像制作・編集のルールに沿っていないためであるが、このような映像技法や映像文法をプロでない人が用いるのは煩雑なため、映像編集の敷居を高くしている要因の一つとなっている。
映像技法は、カットと呼ばれる素材の一単位に対するカメラワークや、素材の繋ぎ合わせ方、素材の長さがルール化されているものであり、プロの映像制作者が意図的、もしくは無意識の内にこれらの技法を用いて映像を制作している。この技法を映像編集へ適用することによって、映像生成のレベルを上げることが行われている
非特許文献1では、プロの映像技法を解析し、解析結果に基づいて撮影や編集の自動化をしている。また、ショットサイズと呼ばれる画面に占める被写体の割合の大きさを用いて素材の時間的長さを自動的に設定している。
また、特許文献1では素材に含まれる被写体の数、被写体の位置に応じて、素材の再生時間を設定している。また、特許文献2では画像内からショットサイズの大きさを求めることが開示されている。
In recent years, in addition to the popularization of home digital video cameras, the number of digital devices for shooting moving images has increased, such as the addition of moving image shooting functions to digital SLR cameras.
Conventionally, when collecting and editing material videos such as captured videos and still images, the resulting videos are monotonous in videos created by people with little video production experience. This is because it does not follow the video production and editing rules called video techniques or video grammar used by professionals, but it is cumbersome for non-professionals to use such video techniques and video grammars. This is one of the factors that raise the threshold.
The video technique is a rule of camera work for a unit of material called a cut, how to connect the materials, and the length of the material, so that professional video producers can deliberately or unconsciously I make videos using these techniques. Non-Patent Document 1 analyzes professional video techniques and automates shooting and editing based on the analysis results. Yes. In addition, the time length of the material is automatically set using the size of the ratio of the subject to the screen called the shot size.
In Patent Document 1, the reproduction time of the material is set according to the number of subjects included in the material and the position of the subject.
しかしながら、非特許文献1の様にショットサイズを基に素材の時間長を設定する、もしくは、特許文献1の様に被写体の数や位置で時間長を設定しても、編集により生成される映像における被写体の出現間隔により、映像内の被写体の認識時間が一定ではない。このため、認識する時間よりもショットサイズで指定された時間長が短い場合には、認識不足となり、映像に違和感を起こさせてしまう。
そこで本発明では、認識するのに適した時間に基づいた画像編集を行うことを目的とする。
However, even if the time length of the material is set based on the shot size as in Non-Patent Document 1, or the time length is set according to the number and position of subjects as in Patent Document 1, the video generated by editing The recognition time of the subject in the video is not constant due to the appearance interval of the subject. For this reason, when the time length specified by the shot size is shorter than the recognition time, the recognition is insufficient and the video is uncomfortable.
Therefore, an object of the present invention is to perform image editing based on a time suitable for recognition.
上記の目的を達成するための本発明の一態様による画像処理装置は以下の構成を備える。すなわち、画像を複数選択する選択手段と、前記選択された画像それぞれについて、どのようなものが写っているか認識できる認識時間を設定する設定手段と、前記設定手段による認識時間に基づいて前記選択された画像を繋ぎ合せて映像を生成する生成手段とを有することを特徴とする。 In order to achieve the above object, an image processing apparatus according to an aspect of the present invention has the following arrangement. That is, a selection means for selecting a plurality of images, a setting means for setting a recognition time for recognizing what each of the selected images is captured, and the selection based on the recognition time by the setting means. And generating means for generating a video by connecting the images.
本発明により、画像を認識するのに適した時間から再生時間を設定するので、認識しやすい画像編集が可能となる。 According to the present invention, since the reproduction time is set from a time suitable for recognizing an image, it is possible to easily perform image editing.
[実施形態1]
以下、図面を用いて本発明を具体的に説明する。
[Embodiment 1]
Hereinafter, the present invention will be specifically described with reference to the drawings.
図1は本実施形態を実現する画像処理装置のハードウェアの概略を示した図である。 FIG. 1 is a diagram showing an outline of hardware of an image processing apparatus that implements the present embodiment.
画像処理装置100は、画像処理を行うPC(パーソナルコンピュータ)であり、各種プログラムを実行し、外部機器を接続する。
The
CPU101は、各構成の処理全てに関わり、ROM102やRAM103に格納された命令を順に読み込み、解釈し、その結果に従って処理を実行する。後述のフローの各処理もCPU101が行う。また、ROM102とRAM103は、その処理に必要なプログラム、データ、作業領域などをCPU101に提供する。
The
記録装置104は、HDD(Hard disk drive)やSSD(Solid State Drive)といった大規模な容量のデータを保存するものであり、編集のための素材や編集結果を保存するために使用するものである。
The
入出力インターフェース(I/F)105は、外部機器との接続のために必要なインターフェースであり、ディスプレイ106、キーボード107、マウス108、ネットワークI/F109、メモリーカードI/F110と接続する。
An input / output interface (I / F) 105 is an interface necessary for connection to an external device, and is connected to the display 106, the
ディスプレイ106は、処理画面を表示するための出力装置である。キーボード107、マウス108はユーザの操作を反映するための入力装置である。ネットワークI/F109は、ネットワークを通じて、他の機器と接続し、データをやり取りするためのインターフェースである。メモリーカードI/F110は、外部記録装置にデータを読み書きするためのインターフェースである。
The display 106 is an output device for displaying a processing screen. A
なお、装置の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。 In addition, although the component of an apparatus exists other than the above, since it is not the main point of this invention, description is abbreviate | omitted.
本実施形態では、上記画像処理装置の一形態として、PCで動作する自動編集アプリケーションを例にとって説明する。 In the present embodiment, an automatic editing application that runs on a PC will be described as an example of the image processing apparatus.
図2の処理ブロック図は、映像編集アプリケーションの主な処理ブロックを示す図である。図2を用いて処理ブロック毎に順に説明する。素材群F201は撮影済みの動画、静止画、音楽の素材の集合である。使用素材の選択部F202は、素材群F201から使用する複数の動画または静止画である素材を選択する処理ブロックである。選択条件、選択方法は本発明の主眼で無いため、説明を省略する。 The processing block diagram of FIG. 2 is a diagram showing main processing blocks of the video editing application. The processing blocks will be described in order with reference to FIG. The material group F201 is a set of captured moving images, still images, and music materials. The used material selection unit F202 is a processing block that selects a plurality of moving images or still images used from the material group F201. Since the selection condition and the selection method are not the main point of the present invention, the description is omitted.
選択素材の配置部F203は、F202で選択された複数の素材を映像編集の時間軸上に配置する処理ブロックである。時間軸への配置に関しても本発明の主眼で無いため、説明を省略する。ここでいう時間軸への配置とは、編集映像の開始から終了までを順に並べることを指す。認識時間の算出部F204は、選択素材配置部F203で配置された各素材の順序情報を用いて、各素材の認識時間の長さを設定する処理ブロックである。ここでは、認識時間とは、素材にどのようなものが写っているかが認識できる時間という意味で用いる。映像加工部F205は、各素材および素材の間にエフェクトと呼ばれる映像加工処理を行う処理ブロックである。出力部F206は、映像加工部F205において編集処理された素材を特定の映像形式で出力する。 The selected material placement unit F203 is a processing block that places a plurality of materials selected in F202 on the video editing time axis. Since the arrangement on the time axis is not the main point of the present invention, the description thereof is omitted. The arrangement on the time axis here refers to arranging the edit video from the start to the end in order. The recognition time calculation unit F204 is a processing block that sets the length of recognition time of each material using the order information of each material arranged by the selected material arrangement unit F203. Here, the recognition time is used to mean a time during which it can be recognized what kind of material is reflected in the material. The video processing unit F205 is a processing block that performs video processing called an effect between materials. The output unit F206 outputs the material edited in the video processing unit F205 in a specific video format.
本実施形態では、認識時間の算出部F204における素材の認識時間を設定する処理ブロックについて、以下で説明する。 In the present embodiment, a processing block for setting a material recognition time in the recognition time calculation unit F204 will be described below.
図3は、本実施形態における素材の認識時間を設定する処理の全体フローチャートを示す図である。 FIG. 3 is a diagram showing an overall flowchart of processing for setting a material recognition time in the present embodiment.
ステップS301は、生成する映像で用いる素材の時間軸上に配置された順序情報を取得する。 In step S301, order information arranged on the time axis of the material used in the generated video is acquired.
ステップS302は、素材群から、注目被写体を含む領域を指定し、指定した注目被写体の画像データから被写体を認識し、注目被写体を認識(弁別)するための情報を出力する。注目被写体領域および注目被写体の指定方法は、ユーザが画面を見ながら行うことを想定しているが、他の装置が解析した結果を用いても良く、注目被写体を認識した情報が取得出来れば良い。次のステップ以降の処理は、各素材に対し、配置時間順に処理を行う。 In step S302, an area including the target subject is specified from the material group, the subject is recognized from the image data of the specified target subject, and information for recognizing (discriminating) the target subject is output. The target subject area and the target subject designation method are assumed to be performed while the user looks at the screen. However, the result of analysis by another device may be used, and information that recognizes the target subject may be acquired. . The processing after the next step is performed on each material in the order of arrangement time.
ステップS303は、被写体を判別するための被写体認識処理を行い、ステップS302で取得した注目被写体情報を用いて、素材に含まれる注目被写体を認識する。認識結果を履歴データベースに記録する。人物認識処理のアルゴリズムの詳細に関しては、本発明の主眼では無く、公知の手法を使用するため、詳細な説明を省略する。また、このステップ以前に認識情報を取得している場合には、このステップでの認識処理は行わず、取得した認識情報を用いても良い。 In step S303, subject recognition processing for discriminating the subject is performed, and the subject of interest included in the material is recognized using the subject of interest information acquired in step S302. Record the recognition result in the history database. The details of the algorithm for the person recognition processing are not the main point of the present invention, but a known method is used, and thus detailed description thereof is omitted. Further, when the recognition information is acquired before this step, the acquired recognition information may be used without performing the recognition process in this step.
ステップS304は、選択された素材に対し、被写体サイズ検出の処理を行う。ここでは被写体領域の検出に顔検出処理を用いる。ステップS303の被写体認識処理と同様に、顔検出処理のアルゴリズムの手法に関しては、公知の手法を使用する。被写体サイズの算出には顔検出処理を行い、素材に含まれる顔の領域の大きさ、位置を取得する。顔領域から被写体サイズを算出する処理の詳細は、図4の処理フローを用いて、後述する。また、本処理ステップ以前において、被写体サイズの情報、顔領域情報を取得している場合は、本処理ブロックでの顔検出処理を行わず、取得情報を用いても良い。 In step S304, subject size detection processing is performed on the selected material. Here, face detection processing is used to detect the subject area. As in the subject recognition process in step S303, a known technique is used as the algorithm technique for the face detection process. In calculating the subject size, face detection processing is performed, and the size and position of the face area included in the material are acquired. Details of the processing for calculating the subject size from the face area will be described later using the processing flow of FIG. If subject size information and face area information have been acquired before this processing step, the acquired information may be used without performing face detection processing in this processing block.
ステップS305は、注目被写体情報と算出した被写体サイズ情報、被写体認識情報を用いて素材の認識時間を設定する処理である。 Step S305 is a process of setting the material recognition time using the noticed subject information, the calculated subject size information, and subject recognition information.
処理の詳細については、図5のフローチャートを用いて後述する。 Details of the processing will be described later with reference to the flowchart of FIG.
ステップS306において、全素材に対する処理が終了したかを判断し、終了していなければ、ステップS307へ移行し、全素材分の処理が終了していれば、素材の時間長を調整する処理は終了となる。 In step S306, it is determined whether or not the processing for all the materials has been completed. If the processing has not been completed, the process proceeds to step S307. If the processing for all the materials has been completed, the processing for adjusting the time length of the material is completed. It becomes.
ここで、素材が動画の場合、素材の所定番目のフレームの被写体情報を用いてもよいし、複数のフレームから得た被写体情報の平均を取ってもよい。 Here, when the material is a moving image, the subject information of a predetermined frame of the material may be used, or the subject information obtained from a plurality of frames may be averaged.
以上で素材の認識時間を設定する処理についての説明を終了する。 This is the end of the description of the process for setting the material recognition time.
次に図4のフローチャートを用いて、被写体サイズ情報として顔検出を使った場合のサイズを区分する処理の説明をする。これは図3のステップS304の詳細処理フローになる。 Next, a process for classifying the size when face detection is used as the subject size information will be described using the flowchart of FIG. This is a detailed processing flow of step S304 in FIG.
ステップS401で顔領域の大きさ、位置の情報を取得する。素材に対し、切り出しや拡大縮小処理をする場合には、処理後の大きさ、位置を算出する。この際、顔領域の大きさから顔の中心位置の座標を算出する。ここでの顔の大きさは、面積もしくは、高さ、幅、斜めの情報を用いて、算出する。顔の位置についても顔の中心座標を用いたが、中心に限定するものではなく、顔領域が画面上のどこにあるかを判断出来れば、良いため、位置を算出するための座標は、中心でなくて良い。 In step S401, information on the size and position of the face area is acquired. When the cutout or enlargement / reduction processing is performed on the material, the size and position after the processing are calculated. At this time, the coordinates of the center position of the face are calculated from the size of the face area. The size of the face here is calculated using information on area, height, width, and slant. Although the center coordinates of the face were used for the face position, it is not limited to the center, and it is only necessary to be able to determine where the face area is on the screen, so the coordinates for calculating the position are the center. It is not necessary.
ステップS402は、素材の画像の幅、高さを取得する。素材の解像度を変更する場合には、解像度変更後の幅および高さを取得する。また、解像度の変更には、画面の中から使用する領域を切出して使用する場合も含まれ、切り出される領域を画像の幅、高さとして使用する。 In step S402, the width and height of the material image are acquired. When changing the resolution of the material, the width and height after the resolution change are acquired. The resolution change includes a case where an area to be used is cut out from the screen, and the area to be cut out is used as the width and height of the image.
ステップS403は、ステップS402で取得した画像の幅と高さ情報と、ステップS401で取得した顔の中心位置座標を用いて、顔の位置が画像のどの座標にあるかを判別する。顔の位置座標が画像の高さに対し、高さの半分より上部にあるかを判断し、上部にある場合はステップS404に移行し、上部に無い場合は、ステップS408に移行する。 In step S403, using the image width and height information acquired in step S402 and the center position coordinates of the face acquired in step S401, the coordinates of the face are determined. It is determined whether the face position coordinates are above the half of the height of the image. If the position coordinates are above, the process proceeds to step S404. If not, the process proceeds to step S408.
ステップS404は、ステップS401で取得した顔領域の大きさとステップS402で取得した画像の高さから、高さに対する顔領域の高さの割合を算出する。顔の領域の高さの割合が、閾値より大きい場合はステップS405へ移行し、閾値より小さい場合には、ステップS406へ移行する。閾値の設定には、日本人の成人の平均的な頭身が約7頭身であるため、1/8とするが、被写体が他の人種や子供の場合には適切な閾値に変更する。 In step S404, the ratio of the height of the face area to the height is calculated from the size of the face area acquired in step S401 and the height of the image acquired in step S402. If the ratio of the height of the face area is larger than the threshold, the process proceeds to step S405, and if smaller than the threshold, the process proceeds to step S406. The threshold is set to 1/8 because the average head of a Japanese adult is about 7, so if the subject is another race or child, change it to an appropriate threshold. .
ステップS405は、顔領域の大きさと素材の画面の幅と高さから、画面に占める顔領域の大きさを算出し、閾値以上であるかを判断する。閾値よりも小さい場合にはステップS407へ移行し、大きい場合にはステップS408へ移行する。ここでの閾値は画面の高さに対する顔領域の高さ、もしくは画面の幅に対する顔領域の幅が2/3であるとする。 In step S405, the size of the face area occupying the screen is calculated from the size of the face area and the width and height of the material screen, and it is determined whether or not the face area is greater than or equal to the threshold value. If it is smaller than the threshold value, the process proceeds to step S407, and if it is greater, the process proceeds to step S408. Here, the threshold is assumed to be 2/3 of the face area height relative to the screen height or the face area width relative to the screen width.
ステップS406、ステップS407、ステップS408はそれぞれ、区分した大きさを決定する処理であり、S406は小さいサイズ、S407は標準サイズショット、S408は大きいサイズと決定する。 Step S406, step S407, and step S408 are processes for determining the divided sizes. S406 is determined to be a small size, S407 is a standard size shot, and S408 is determined to be a large size.
以上で素材に含まれる顔の領域の大きさ情報いから被写体サイズを区分する処理についての説明を終了する。 This is the end of the description of the process of classifying the subject size based on the size information of the face area included in the material.
次に図5のフローチャートを用いて、注目被写体情報、被写体認識情報、被写体サイズ情報から各素材に適した認識時間を設定する処理フローの各処理について説明をする。 Next, each processing in the processing flow for setting a recognition time suitable for each material from the target subject information, subject recognition information, and subject size information will be described using the flowchart of FIG.
ステップS501で注目被写体情報を取得する。ステップS502で、被写体認識情報を用いて素材に含まれる被写体と注目被写体情報と比較する。ステップS503で、ステップS502の比較の結果、素材に含まれる被写体が注目被写体を含むかを判定し、ステップS503で注目被写体を含むと判定された場合、ステップS504に移行し、含まれないと判定された場合はステップS409に移行する。 In step S501, target subject information is acquired. In step S502, the subject recognition information is used to compare the subject included in the material with the target subject information. In step S503, it is determined whether the subject included in the material includes the target subject as a result of the comparison in step S502. If it is determined in step S503 that the target subject is included, the process proceeds to step S504, and it is determined that the target subject is not included. If so, the process proceeds to step S409.
ステップS504で、被写体サイズを取得する。ここでは被写体サイズから標準サイズか、大きいサイズか小さいサイズか区分した情報を取得する。ステップS505において、取得したサイズが標準サイズかどうかを判断し、標準サイズでない場合はステップS506へ移行し、標準サイズの場合はステップS509に移行する。 In step S504, the subject size is acquired. Here, information obtained by classifying the subject size into a standard size, a large size, or a small size is acquired. In step S505, it is determined whether the acquired size is a standard size. If it is not the standard size, the process proceeds to step S506, and if it is a standard size, the process proceeds to step S509.
ステップS506において、サイズが大きいかどうかを判断し、大きい場合にはステップS507に移行し、小さい場合にはステップS508に移行する。 In step S506, it is determined whether or not the size is large. If the size is large, the process proceeds to step S507. If the size is small, the process proceeds to step S508.
ステップS507では、認識時間を標準再生時間よりも短く設定する。ステップS508では、認識時間を標準再生時間よりも長く設定する。ステップS509では、認識時間を標準再生時間として設定する。本実施形態では、認識時間を3段階に設定したが、実際に認識に必要な時間そのものを設定してもよい。また、素材の認識時間を素材の再生時間とするが、素材の認識時間と異なる再生時間を予め対応付けておく等、必ずしも同じ時間でなくともよい。 In step S507, the recognition time is set shorter than the standard reproduction time. In step S508, the recognition time is set longer than the standard reproduction time. In step S509, the recognition time is set as the standard reproduction time. In this embodiment, the recognition time is set in three stages, but the time actually required for recognition may be set. In addition, although the material recognition time is the material reproduction time, the reproduction time different from the material recognition time may be associated with the material recognition time in advance.
また、再生時間とは、静止画の場合は、同一の静止画を表示し続ける時間であり、動画の場合は、選択された動画の最初から再生時間分再生するようにしてもよいし、動画の内容から判断した位置から再生時間分再生するようにしてもよい。 The playback time is the time for which the same still image is displayed in the case of a still image. In the case of a movie, the playback time may be played from the beginning of the selected movie. You may make it reproduce | regenerate for reproduction | regeneration time from the position judged from the content of this.
以上で、注目被写体情報、被写体認識情報、被写体サイズから素材の認識時間を設定する処理フローの説明を終了する。 This is the end of the description of the processing flow for setting the material recognition time from the noticed subject information, subject recognition information, and subject size.
なお、本実施形態では、自動編集するアプリケーションの例を用いて説明した。自動編集アプリケーションの例としては、図6の様に使用する素材、編集する映像のテーマ、生成する映像の条件を選択するための手段(602、603、604)を有し、作成を開始する手段(605)を有する。 In the present embodiment, an example of an application for automatic editing has been described. As an example of the automatic editing application, as shown in FIG. 6, there are means (602, 603, 604) for selecting the material to be used, the theme of the video to be edited, and the conditions of the video to be generated, and means for starting creation (605).
編集結果として、図7の様にタイムラインという時間軸上に素材が配置され、映像素材706の様に素材の時間の長さが設定されたものである。再生の確認には再生制御部704もしくは、指示部705を操作することによって、再生プレビュー画面702を通じて行う。なお、図6、図7のユーザーインターフェース画面は例であり、配置や構成要素に関して、本発明の主眼とは異なるため、限定されるものでは無い。 As an editing result, the material is arranged on the time axis called the timeline as shown in FIG. 7, and the time length of the material is set like the video material 706. Confirmation of reproduction is performed through the reproduction preview screen 702 by operating the reproduction control unit 704 or the instruction unit 705. Note that the user interface screens of FIGS. 6 and 7 are examples, and the arrangement and components are not limited because they are different from the main points of the present invention.
また、本実施形態では、自動編集するアプリケーションの例で説明したが、手動で編集するアプリケーションにおいても適用できる。図7を手動編集画面とすると、タイムラインに素材を配置すると、自動的に最適な素材の時間長を設定することが出来る。 In this embodiment, the example of the application that automatically edits has been described, but the present invention can also be applied to an application that manually edits. If FIG. 7 is a manual edit screen, the optimal material time length can be set automatically when the material is placed on the timeline.
以上説明した処理制御を行うことで、映像編集における映像素材の被写体の情報から、映像素材を認識するのに適した時間を求めることにより、映像素材の長さを自動的に設定するので、認識しやすい映像編集が可能となる。 By performing the processing control described above, the length of the video material is automatically set by obtaining the appropriate time for recognizing the video material from the information of the subject of the video material in video editing. Easy video editing is possible.
[実施形態2]
実施形態1では、注目被写体の被写体サイズを用いて、被写体サイズの大きさを基に素材の認識時間を設定したが、本実施形態2では、注目被写体の出現間隔を用いて、素材の認識時間の長さを調整する。
[Embodiment 2]
In the first embodiment, the material recognition time is set based on the size of the subject size using the subject size of the target subject. In the second embodiment, the material recognition time is set using the appearance interval of the target subject. Adjust the length.
全体の処理フローは実施形態1の図3の処理フローを用い、ステップS305のサイズによる素材の認識時間の設定処理である図5の処理フローを後述の図8の処理フローへ置き換えるものである。 The entire processing flow is the processing flow of FIG. 3 of the first embodiment, and the processing flow of FIG. 5 which is the material recognition time setting processing according to the size in step S305 is replaced with the processing flow of FIG.
図8の処理フローを用いて、注目被写体の出現間隔を用いて、素材の認識時間を設定する処理を説明する。 A process of setting the material recognition time using the appearance interval of the subject of interest will be described using the processing flow of FIG.
ステップS801において、注目被写体情報を取得する。ステップS802において、被写体認識情報を用いて注目被写体が時間的に前の素材に出現しているかを判断する。この際に被写体毎の出現履歴データベースを作成し、それを出現の有無に用いても良い。以前の素材に注目被写体が存在する場合にはステップS803に移行し、存在しない場合はステップS805に移行する。 In step S801, target subject information is acquired. In step S802, it is determined whether or not the subject of interest has appeared in the previous material in time using the subject recognition information. At this time, an appearance history database for each subject may be created and used for the presence or absence of appearance. If the subject of interest exists in the previous material, the process proceeds to step S803, and if not, the process proceeds to step S805.
ステップS803において、以前に注目被写体が出現した素材との出現間隔を算出する。ステップS804において、算出した出現間隔が閾値よりも小さいかを判断し、小さい場合はステップS806に移行し、大きい場合にはステップS805に移行する。ステップS805において、認識時間を長くする。ステップS806において、再生時間を長くする。ステップS807において、出現履歴を更新する。 In step S803, the appearance interval with the material in which the subject of interest has previously appeared is calculated. In step S804, it is determined whether the calculated appearance interval is smaller than the threshold value. If it is smaller, the process proceeds to step S806, and if larger, the process proceeds to step S805. In step S805, the recognition time is lengthened. In step S806, the playback time is lengthened. In step S807, the appearance history is updated.
以上で、図8の出現間隔により素材の認識時間を設定する処理フローの説明を終了する。 Above, description of the processing flow which sets the recognition time of a raw material with the appearance interval of FIG. 8 is complete | finished.
本実施形態2においては、注目被写体の出現間隔から、映像素材を認識するのに適した時間を求めることにより、映像素材の長さを自動的に設定するので、認識しやすい映像編集が可能となる。 In the second embodiment, since the length of the video material is automatically set by obtaining a time suitable for recognizing the video material from the appearance interval of the subject of interest, video editing that is easy to recognize is possible. Become.
[実施形態3]
本実施形態3では、素材の認識時間の設定判断において、注目被写体の出現間隔内における他の登場人物の数を用いるものである。全体の処理フローは実施形態1の図3の処理フローを用い、ステップS305の処理である図5の処理フローを後述の図9の処理フローへ置き換えるものである。
[Embodiment 3]
In the third embodiment, the number of other characters in the appearance interval of the subject of interest is used in the determination of the material recognition time. The overall processing flow uses the processing flow of FIG. 3 of the first embodiment, and replaces the processing flow of FIG. 5 which is the processing of step S305 with the processing flow of FIG.
次に図9の処理フローを説明する。 Next, the processing flow of FIG. 9 will be described.
ステップS901からステップS904までは、実施形態2の図8のステップS801からステップS804までの処理と同様であるため、説明を省略する。ステップS904の判断処理は、図8のステップS804と同様であるが、出現間隔が小さい場合の移行先がステップS905に変更となっている。 Steps S901 to S904 are the same as the processing from step S801 to step S804 in FIG. The determination process in step S904 is the same as that in step S804 in FIG. 8, but the transition destination when the appearance interval is small is changed to step S905.
ステップS905において、ステップS903で求めた出現間隔内に出現する他の登場人物の数を求め、被写体認識情報を用いて、登場人物の数が所定の閾値より少ないかを判断する。閾値より少ない場合にはステップS908に移行し、多い場合にはステップS906へ移行する。 In step S905, the number of other characters appearing within the appearance interval determined in step S903 is determined, and it is determined whether the number of characters is less than a predetermined threshold using the subject recognition information. If it is less than the threshold value, the process proceeds to step S908, and if it is greater, the process proceeds to step S906.
ステップS906において、認識時間を長くする。ステップS907において、認識時間を短くする。ステップS908において、注目被写体の出現履歴を更新する。以上で、実施形態3の説明を終了する。 In step S906, the recognition time is lengthened. In step S907, the recognition time is shortened. In step S908, the appearance history of the subject of interest is updated. Above, description of Embodiment 3 is complete | finished.
本実施形態3においては、注目被写体の出現間隔の間に出現する他の被写体の数を用いて、素材の時間長を調整する処理について説明した。 In the third embodiment, the processing for adjusting the time length of the material using the number of other subjects appearing during the appearance interval of the subject of interest has been described.
以上説明したように、注目被写体の出現間隔の間に出現する他の被写体の数から、映像素材を認識するのに適した時間を求めることにより、映像素材の長さを自動的に設定するので、認識しやすい映像編集が可能となる。 As described above, the length of the video material is automatically set by obtaining a time suitable for recognizing the video material from the number of other subjects appearing during the appearance interval of the subject of interest. Video editing that is easy to recognize is possible.
また、本発明の構成要素は、複数の機器(例えばホストコンピュータ,インターフェース機器,リーダ,プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、カメラ,複写機,ファクシミリ装置など)に適用しても良い。本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムが記憶媒体に格納されたプログラムコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。プログラムコードを供給するための記憶媒体としては、例えば、フロッピーディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,DVD、磁気テープ,不揮発性のデータ保存部,ROMなどを用いることが出来る。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部を行う。さらに、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるデータ保存部に書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 The component of the present invention can be applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.). The present invention may be applied to a facsimile machine or the like. An object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and the system reads and executes the program codes stored in the storage medium. Is also achieved. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. As a storage medium for supplying the program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a DVD, a magnetic tape, a nonvolatile data storage unit, a ROM, or the like is used. I can do it. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on the instruction of the program code. Perform some of the actual processing. Furthermore, it is needless to say that the case where the functions of the above-described embodiments are realized by the processing. Further, the program code read from the storage medium is written to a data storage unit provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing, and the processing of the above-described embodiment is realized by the processing. Needless to say.
Claims (8)
前記選択された画像それぞれについて、どのようなものが写っているか認識できる認識時間を設定する設定手段と、
前記設定手段による認識時間に基づいて前記選択された画像を繋ぎ合せて映像を生成する生成手段と
を有することを特徴とする画像処理装置。 A selection means for selecting a plurality of images;
For each of the selected images, setting means for setting a recognition time for recognizing what is captured,
An image processing apparatus comprising: generating means for connecting the selected images based on a recognition time by the setting means to generate a video.
前記選択された画像それぞれから前記指定された被写体に関する被写体情報を取得する取得手段とを有し、
前記設定手段は、前記取得された被写体情報から、該被写体情報と対応する画像の認識時間を設定することを特徴とする請求項1に記載の画像処理装置。 A designation means for designating a subject;
Obtaining means for obtaining subject information relating to the designated subject from each of the selected images;
The image processing apparatus according to claim 1, wherein the setting unit sets a recognition time of an image corresponding to the subject information from the acquired subject information.
前記選択された画像それぞれの認識時間を設定手段が設定する設定工程と、
前記設定手段による認識時間に基づいて前記選択された画像を繋ぎ合せて映像を生成手段が生成する生成工程と
を有することを特徴とする画像処理装置の制御方法。 A selection step in which the selection means selects a plurality of images that are moving images or still images; and
A setting step in which a setting unit sets a recognition time for each of the selected images;
A generation method in which the generation unit generates a video by joining the selected images based on a recognition time by the setting unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012055626A JP5967986B2 (en) | 2012-03-13 | 2012-03-13 | Image processing apparatus and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012055626A JP5967986B2 (en) | 2012-03-13 | 2012-03-13 | Image processing apparatus and control method thereof |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013191963A true JP2013191963A (en) | 2013-09-26 |
JP2013191963A5 JP2013191963A5 (en) | 2015-04-30 |
JP5967986B2 JP5967986B2 (en) | 2016-08-10 |
Family
ID=49391827
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012055626A Expired - Fee Related JP5967986B2 (en) | 2012-03-13 | 2012-03-13 | Image processing apparatus and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5967986B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005354332A (en) * | 2004-06-10 | 2005-12-22 | Casio Comput Co Ltd | Image reproducer and program |
JP2006245646A (en) * | 2005-02-28 | 2006-09-14 | Fuji Photo Film Co Ltd | Image reproducing apparatus, image reproducing program, photomovie creating apparatus and photomovie creating program |
JP2008205953A (en) * | 2007-02-21 | 2008-09-04 | Sanyo Electric Co Ltd | Imaging device and image reproducing device |
JP2010148049A (en) * | 2008-12-22 | 2010-07-01 | Hoya Corp | Image reproducing system and camera |
-
2012
- 2012-03-13 JP JP2012055626A patent/JP5967986B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005354332A (en) * | 2004-06-10 | 2005-12-22 | Casio Comput Co Ltd | Image reproducer and program |
JP2006245646A (en) * | 2005-02-28 | 2006-09-14 | Fuji Photo Film Co Ltd | Image reproducing apparatus, image reproducing program, photomovie creating apparatus and photomovie creating program |
JP2008205953A (en) * | 2007-02-21 | 2008-09-04 | Sanyo Electric Co Ltd | Imaging device and image reproducing device |
JP2010148049A (en) * | 2008-12-22 | 2010-07-01 | Hoya Corp | Image reproducing system and camera |
Also Published As
Publication number | Publication date |
---|---|
JP5967986B2 (en) | 2016-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9984725B2 (en) | Apparatus and method for editing | |
JP4811433B2 (en) | Image selection apparatus, image selection method, and program | |
US8782563B2 (en) | Information processing apparatus and method, and program | |
US11184558B1 (en) | System for automatic video reframing | |
JP4241709B2 (en) | Image processing device | |
KR20160013984A (en) | Touch optimized design for video editing | |
TW200945895A (en) | Image processor, animation reproduction apparatus, and processing method and program for the processor and apparatus | |
JP2016119600A (en) | Editing device and editing method | |
US10685679B1 (en) | System and method of determining a virtual camera path | |
JP2010057145A (en) | Electronic device, and method and program for changing moving image data section | |
JP2006094053A (en) | Photo movie creating method and apparatus thereof, and photo movie creating program | |
JP6934402B2 (en) | Editing system | |
JP2013042215A (en) | Video editing device and control method therefor | |
JP5967986B2 (en) | Image processing apparatus and control method thereof | |
JP2000222417A (en) | Image filing device | |
JP2005167822A (en) | Information reproducing device and information reproduction method | |
US8773441B2 (en) | System and method for conforming an animated camera to an editorial cut | |
JP2006352879A (en) | Method of identifying and visualizing event in video frame, and system for generating timeline of event in video stream | |
JP4200960B2 (en) | Editing apparatus, editing method, and program | |
JP2010206609A (en) | Image playback apparatus, control method of the same, and program | |
JP2012137560A (en) | Karaoke device and control method and control program for karaoke device | |
KR20110114385A (en) | Object tracking method in video and object service authoring device | |
JP2009175467A (en) | Recording and reproducing device, and program | |
KR20140131069A (en) | Device and method for producting loop animation | |
JP2017092913A (en) | Image reproducer and control method and program therefor and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150312 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150312 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160510 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160705 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5967986 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |