JP2006146823A - Video object trajectory adding system and video object trajectory adding program - Google Patents
Video object trajectory adding system and video object trajectory adding program Download PDFInfo
- Publication number
- JP2006146823A JP2006146823A JP2004339606A JP2004339606A JP2006146823A JP 2006146823 A JP2006146823 A JP 2006146823A JP 2004339606 A JP2004339606 A JP 2004339606A JP 2004339606 A JP2004339606 A JP 2004339606A JP 2006146823 A JP2006146823 A JP 2006146823A
- Authority
- JP
- Japan
- Prior art keywords
- trajectory
- video object
- image
- position information
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims description 10
- 239000000203 mixture Substances 0.000 claims description 9
- 230000002194 synthesizing effect Effects 0.000 abstract description 15
- 238000000605 extraction Methods 0.000 description 56
- 238000000034 method Methods 0.000 description 15
- 239000000284 extract Substances 0.000 description 12
- 230000003111 delayed effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000002372 labelling Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 239000011295 pitch Substances 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、映像制作の技術に係り、特に、映像オブジェクトの軌跡を示した映像を生成する映像オブジェクト軌跡付加装置及び映像オブジェクト軌跡付加プログラムに関する。 The present invention relates to a video production technique, and more particularly to a video object trajectory adding apparatus and a video object trajectory adding program for generating a video showing a trajectory of a video object.
従来、時系列に撮影される、映像を構成する画像(ノンインタレース方式の場合はフレーム画像、インタレース方式の場合はフレーム画像あるいはフィールド画像(以下、単にフレーム画像という))間の差分をとる方法によって、移動する物体の画像である映像オブジェクトを抽出し、その映像オブジェクトを重ね書きすることで、映像オブジェクトの軌跡を映像上に表現する装置が存在する。しかし、この技術では、例えば、野球中継等の映像において、抽出対象となる映像オブジェクトであるボールの軌跡を映像上に表現する場合において、ピッチャの腕やバットなどのボール以外の映像オブジェクトまでが抽出されてしまう。 Conventionally, a difference between images that are captured in time series and that constitute a video (a frame image in the case of a non-interlace method, a frame image or a field image (hereinafter simply referred to as a frame image) in the case of an interlace method) is obtained. There is a device that extracts a video object that is an image of a moving object by a method and expresses the trajectory of the video object on a video by overwriting the video object. However, with this technology, for example, in a video such as a baseball game, when the trajectory of a ball, which is a video object to be extracted, is represented on the video, video objects other than the ball such as a pitcher's arm and bat are extracted. Will be.
そして、特定の映像オブジェクトのみを安定して抽出することができるシステムが開発されている(非特許文献1参照)。このシステムでは、時系列に入力されるフレーム画像ごとに、その直前に入力されたフレーム画像との差分画像と、直後に入力されたフレーム画像との差分画像とを求める。そして、この2つの差分画像で画素値の正負が異符号になる領域を映像オブジェクトの候補とする。更に、フレーム画像内において、誤検出されやすい映像オブジェクトが存在する領域を予めマスク領域として設定しておき、抽出された映像オブジェクトの候補から当該マスク領域内の映像オブジェクトを除外した後に、対象となる映像オブジェクトを選択して軌跡を表示する。 A system that can stably extract only a specific video object has been developed (see Non-Patent Document 1). In this system, for each frame image input in time series, a difference image between the frame image input immediately before and a difference image between the frame image input immediately thereafter are obtained. Then, an area in which the sign of the pixel value is different between the two difference images is set as a video object candidate. Further, an area in the frame image where a video object that is likely to be erroneously detected is set as a mask area in advance, and after the video object in the mask area is excluded from the extracted video object candidates, the target becomes the target. Select a video object and display the trajectory.
そのため、このシステムでは、野球のボールのような高速で移動する映像オブジェクトの軌跡を表示する場合に、低速で移動する映像オブジェクトを除去して対象となる映像オブジェクトを抽出できるとともに、誤検出されやすい映像オブジェクトが存在するマスク領域を除いて映像オブジェクトを抽出することができるため、安定して対象となる映像オブジェクトを追跡することができる。
しかし、非特許文献1のシステムでは、抽出された映像オブジェクトをそのまま他のフレーム画像に合成するものであり、抽出された映像オブジェクトの位置を、合成されるフレーム画像に合わせて自動的に変えることができなかった。例えば、合成されるフレーム画像内の映像オブジェクトの位置に合わせて、それ以前に抽出された異なる軌跡を描く映像オブジェクトの位置を全体的に移動させて表示することはできなかった。
However, in the system of Non-Patent
一方で、例えば、野球中継などでは、投球後に球筋を振り返る映像として、スロー映像や軌跡映像を用いている。しかし、これらの映像では、その投球の球筋しか表示できないが、例えば、落差が大きい変化球などを表示する場合には、その変化球との比較対象がなければ、どの程度の落差の変化球なのかが伝わりにくい。そのため、ひとつの投球の軌跡(現在軌跡)だけでなく、更にそれ以前に取得された投球の軌跡(過去軌跡)を同時に表示することが望まれていた。 On the other hand, for example, in a baseball broadcast or the like, a slow video or a trajectory video is used as a video to look back at the ball after a pitch. However, in these images, only the ball of the pitch can be displayed. For example, when displaying a change ball with a large drop, if there is no comparison target with the change ball, how much the change ball of the drop is It is difficult to tell. For this reason, it is desired to display not only one pitching trajectory (current trajectory) but also a pitching trajectory (past trajectory) acquired before that time.
しかし、野球中継で一般的に利用されるセンタ方向から撮影するカメラの映像を利用して軌跡を表示する場合には、投球時には固定撮影されるものの、投球の合間には様々なカメラ操作が行われる。そのため、例えば、カメラアングルが変化した場合には、その後に撮影された映像に過去軌跡を表示すると、現在軌跡と過去軌跡とが、フレーム画像内の異なるところに表示されてしまい、過去軌跡を現在軌跡の比較対照として効果的に表示することはできなかった。 However, when displaying the trajectory using a camera image taken from the center direction that is generally used in baseball broadcasts, various camera operations are performed between pitches, although they are fixedly shot at the time of pitching. Is called. Therefore, for example, when the camera angle changes, if a past trajectory is displayed on a video that is subsequently captured, the current trajectory and the past trajectory are displayed at different locations in the frame image, and the past trajectory is It could not be effectively displayed as a trajectory comparison.
本発明は、前記従来技術の課題を解決するために成されたもので、フレーム画像内の映像オブジェクトの軌跡に合わせて、それ以前に取得された映像オブジェクトの軌跡の表示位置を変えて、当該軌跡を表示できる映像オブジェクト軌跡付加装置及び映像オブジェクト軌跡付加プログラムを提供することを目的とする。 The present invention has been made to solve the above-described problems of the prior art, and changes the display position of the trajectory of the video object acquired before according to the trajectory of the video object in the frame image. An object of the present invention is to provide a video object trajectory adding apparatus and a video object trajectory adding program capable of displaying a trajectory.
前記課題を解決するため、請求項1に記載の映像オブジェクト軌跡付加装置は、時系列に入力されるフレーム画像内の映像オブジェクトの位置を検出する映像オブジェクト検出装置から、前記フレーム画像内における前記映像オブジェクトの位置を示す位置情報を入力し、時系列に入力される複数の前記フレーム画像に連続して含まれる前記映像オブジェクトの軌跡を示す軌跡画像を、当該フレーム画像が撮影された位置から撮影された他のフレーム画像に付加する映像オブジェクト軌跡付加装置であって、映像オブジェクト位置情報記憶手段と、軌跡画像位置設定手段と、画像合成手段とを備える構成とした。
In order to solve the above problem, the video object trajectory adding device according to
かかる構成によれば、映像オブジェクト軌跡付加装置は、映像オブジェクト位置情報記憶手段に、映像オブジェクト検出装置から入力される、複数のフレーム画像に連続して含まれる映像オブジェクトの位置情報である過去軌跡位置情報を、この映像オブジェクトの軌跡を特定する軌跡情報と対応させて記憶する。また、軌跡画像位置設定手段によって、映像オブジェクト位置情報記憶手段から、任意の軌跡情報に対応する過去軌跡位置情報を読み出して、他のフレーム画像の映像オブジェクトの位置情報あるいは当該映像オブジェクトの軌跡の位置情報に基づいて過去軌跡位置情報によって示される位置をシフトさせるシフト量を設定するとともに、このシフト量だけ当該過去軌跡位置情報によって示される位置をシフトさせた過去軌跡位置を設定する。更に、画像合成手段によって、軌跡画像位置設定手段によって設定された、他のフレーム画像の過去軌跡位置に、軌跡画像を合成する。 According to such a configuration, the video object trajectory adding device includes the past trajectory position which is the positional information of the video object continuously included in the plurality of frame images input from the video object detection device to the video object position information storage unit. Information is stored in correspondence with the trajectory information for specifying the trajectory of the video object. Further, by the trajectory image position setting means, the past trajectory position information corresponding to arbitrary trajectory information is read from the video object position information storage means, and the position information of the video object of another frame image or the trajectory position of the video object is read. Based on the information, a shift amount for shifting the position indicated by the past locus position information is set, and a past locus position obtained by shifting the position indicated by the past locus position information by this shift amount is set. Further, the trajectory image is synthesized with the past trajectory position of another frame image set by the trajectory image position setting means by the image synthesizing means.
これによって、映像オブジェクト軌跡付加装置は、フレーム画像内の映像オブジェクトあるいはこの映像オブジェクトの軌跡の位置に合わせて、以前に検出された映像オブジェクトの軌跡の位置をシフトさせて、当該軌跡をフレーム画像に合成することができる。なお、映像オブジェクトの位置が検出されたフレーム画像と、この位置に基づいて軌跡画像が合成された他のフレーム画像は、同じ位置に設置されたカメラによって撮影されたものであり、撮影したカメラのカメラアングルは異なっていてもよい。そして、映像オブジェクトの位置が検出されたフレーム画像と他のフレーム画像とで、撮影時のカメラアングルが異なることによって、フレーム画像から検出された映像オブジェクトの位置と、他のフレーム画像の映像オブジェクトの位置とが対応しない場合においても、映像オブジェクト軌跡付加装置は、検出された映像オブジェクトの軌跡の位置をシフトさせて、他のフレーム画像の映像オブジェクトの位置と対応する位置に軌跡画像を付加することができる。また、入力される映像信号がインタレース方式で撮影されたものである場合は、映像オブジェクト軌跡付加装置は、各フレーム画像についての操作をフィールド画像について行うこととしてもよい。 Thus, the video object trajectory adding device shifts the position of the trajectory of the previously detected video object in accordance with the position of the video object in the frame image or the trajectory of the video object, and converts the trajectory into the frame image. Can be synthesized. Note that the frame image in which the position of the video object is detected and the other frame image in which the trajectory image is synthesized based on this position are taken by a camera installed at the same position. The camera angle may be different. Then, since the frame image in which the position of the video object is detected differs from the other frame image in the camera angle at the time of shooting, the position of the video object detected from the frame image and the video object of the other frame image Even when the position does not correspond, the video object trajectory adding device shifts the position of the detected video object trajectory and adds the trajectory image to the position corresponding to the position of the video object in the other frame image. Can do. In addition, when the input video signal is captured by the interlace method, the video object trajectory adding device may perform an operation on each frame image on the field image.
また、請求項2に記載の映像オブジェクト軌跡付加プログラムは、時系列に入力されるフレーム画像内の映像オブジェクトの位置を検出する映像オブジェクト検出装置によって検出された、時系列に入力される複数のフレーム画像に連続して含まれる前記映像オブジェクトの位置情報である過去軌跡位置情報を、当該映像オブジェクトの軌跡を特定する軌跡情報と対応させて記憶する映像オブジェクト位置情報記憶装置から前記過去軌跡位置情報を読み出して、前記軌跡を示す軌跡画像を、当該フレーム画像が撮影された位置から撮影された他のフレーム画像に付加するためにコンピュータを、軌跡画像位置設定手段、画像合成手段として機能させることとした。
The video object trajectory addition program according to
かかる構成によれば、映像オブジェクト軌跡付加プログラムは、軌跡画像位置設定手段によって、この映像オブジェクト位置情報記憶装置から、任意の前記軌跡情報に対応する過去軌跡位置情報を読み出して、他のフレーム画像の映像オブジェクトの位置情報あるいは当該映像オブジェクトの軌跡の位置情報に基づいて過去軌跡位置情報によって示される位置をシフトさせるシフト量を設定するとともに、このシフト量だけ当該過去軌跡位置情報によって示される位置をシフトさせた過去軌跡位置を設定する。また、画像合成手段によって、軌跡画像位置設定手段によって設定された、他のフレーム画像の過去軌跡位置に、軌跡画像を合成する。 According to such a configuration, the video object trajectory addition program reads the past trajectory position information corresponding to the arbitrary trajectory information from the video object position information storage device by the trajectory image position setting means, and stores other frame images. A shift amount for shifting the position indicated by the past trajectory position information is set based on the position information of the video object or the trajectory position information of the video object, and the position indicated by the past trajectory position information is shifted by this shift amount. Set the past trajectory position. The trajectory image is synthesized with the past trajectory position of another frame image set by the trajectory image position setting means by the image compositing means.
これによって、映像オブジェクト軌跡付加プログラムは、フレーム画像内の映像オブジェクトあるいはこの映像オブジェクトの軌跡の位置に合わせて、以前に抽出された映像オブジェクトの軌跡の位置をシフトさせて、当該軌跡をフレーム画像に合成することができる。 As a result, the video object trajectory addition program shifts the position of the trajectory of the previously extracted video object in accordance with the position of the video object in the frame image or the trajectory of the video object, and converts the trajectory into the frame image. Can be synthesized.
本発明に係る映像オブジェクト軌跡付加装置及び映像オブジェクト軌跡付加プログラムでは、以下のような優れた効果を奏する。 The video object trajectory adding apparatus and the video object trajectory adding program according to the present invention have the following excellent effects.
請求項1又は請求項2に記載の発明によれば、映像内の映像オブジェクトや、この映像オブジェクトの軌跡と対比しやすい位置に、それ以前に抽出された映像オブジェクトの軌跡を表示することができる。そのため、過去軌跡を比較対照として、映像内の映像オブジェクトの動きの特徴を効果的に呈示できる映像を提供することができる。 According to the first or second aspect of the present invention, it is possible to display the trajectory of the video object extracted before that in the video object in the video or at a position that can be easily compared with the trajectory of the video object. . Therefore, it is possible to provide a video that can effectively present the characteristics of the motion of the video object in the video using the past trajectory as a comparison and contrast.
以下、本発明の実施の形態について図面を参照して説明する。なお、ここでは、本発明における映像オブジェクト軌跡付加手段(映像オブジェクト軌跡付加装置)を、追跡対象となる動きを伴う映像オブジェクトの軌跡(現在軌跡)と、以前に撮影された映像内の映像オブジェクトの軌跡(過去軌跡)とを付加した映像を生成する軌跡付加映像生成装置に適用する場合について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. Here, the video object trajectory adding means (video object trajectory adding device) according to the present invention uses the trajectory (current trajectory) of the video object with the movement to be tracked and the video object in the video previously captured. A case will be described in which the present invention is applied to a trajectory-added video generation apparatus that generates a video to which a trajectory (past trajectory) is added.
[軌跡付加映像生成装置の構成]
まず、図1を参照して、軌跡付加映像生成装置の構成について説明する。図1は本発明の映像オブジェクト軌跡付加手段を備える軌跡付加映像生成装置の構成を示したブロック図である。軌跡付加映像生成装置1は、入力される映像を構成するフレーム画像から映像オブジェクトを抽出して追跡し、この映像オブジェクトの軌跡を示す軌跡画像を、その後に入力されたフレーム画像に付加するものである。軌跡付加映像生成装置1は、映像オブジェクト抽出手段10と、映像遅延手段20と、映像オブジェクト軌跡付加手段30とを備える。
[Configuration of locus added video generation device]
First, the configuration of the trajectory-added video generation device will be described with reference to FIG. FIG. 1 is a block diagram showing a configuration of a trajectory-added video generation apparatus including video object trajectory adding means of the present invention. The trajectory-added
映像オブジェクト抽出手段(映像オブジェクト検出装置)10は、入力された映像から、フレーム画像ごとに追跡対象となる映像オブジェクトを抽出し、追跡するものである。映像オブジェクト抽出手段10は、オブジェクト候補画像生成手段11と、オブジェクト選定手段12と、抽出条件記憶手段13と、位置予測手段14と、探索領域設定手段15と、ID番号付加手段16を備える。
The video object extracting means (video object detection device) 10 extracts and tracks a video object to be tracked for each frame image from the input video. The video
オブジェクト候補画像生成手段11は、入力された映像からフレーム画像ごとに、追跡対象となる映像オブジェクトの候補を抽出したオブジェクト候補画像を生成するものである。ここでは、オブジェクト候補画像生成手段11は、映像オブジェクトの候補の抽出対象となるフレーム画像と、このフレーム画像より1フレーム後に入力されたフレーム画像との差分画像(差分画像1)、及び、抽出対象となるフレーム画像と、このフレーム画像より1フレーム前に入力されたフレーム画像との差分画像(差分画像2)を生成し、これの差分画像(差分画像1、差分画像2)に基づいて、オブジェクト候補画像を生成することとした。オブジェクト候補画像生成手段11は、画像遅延部111、112と、差分画像生成部113、114と、候補画像生成部115とを備える。
The object candidate image generating means 11 generates an object candidate image obtained by extracting video object candidates to be tracked for each frame image from the input video. Here, the object candidate
画像遅延部111、112は、入力された映像信号を1フレーム分遅延させるもので、例えば、一般的な遅延回路からなることとしてもよいし、入力された映像信号を1フレーム単位でデジタルデータとして記憶するメモリ等からなることとしてもよい。ここで、画像遅延部111は、外部から映像信号を入力し、この映像信号を1フレーム分だけ遅延させた映像信号として、画像遅延部112、差分画像生成部113、114及びオブジェクト選定手段12の特徴量解析部122に出力する。また、画像遅延部112は、画像遅延部111から、1フレーム分遅延された映像信号が入力され、この映像信号を更に1フレーム分だけ遅延させることで、2フレーム分遅延された映像信号として、差分画像生成部114に出力する。
The
差分画像生成部113、114は、入力された2つの映像信号の輝度信号の信号レベルの差分を算出し、フレーム画像ごとに差分画像を生成するもので、一般的な減算回路等から構成することができる。ここで、画像遅延部111によって1フレーム分遅延された映像信号のフレーム画像を映像オブジェクトの候補の抽出対象とした。そして、差分画像生成部113は、画像遅延部111から入力された1フレーム分遅延された映像信号の輝度信号の信号レベルから、外部から入力された映像信号の輝度信号の信号レベルを減算することによって、差分画像1を生成する。また、差分画像生成部114は、画像遅延部112から入力された2フレーム分遅延された映像信号の輝度信号の信号レベルから、画像遅延部111から入力された1フレーム分遅延された映像信号の輝度信号の信号レベルを減算することで、差分画像2を生成する。ここで生成された差分画像(差分画像1及び差分画像2)は、候補画像生成部115に出力される。
The difference
候補画像生成部115は、後記する探索領域設定手段15によって設定された探索領域について、差分画像生成部113、114から入力された差分画像(差分画像1及び差分画像2)の画素値(輝度信号の画素ごとの信号レベル)が所定の条件を満たすかを画素ごとに判定することで、オブジェクト候補画像を生成するものである。ここでは、画素ごとに、当該画素における差分画像1の画素値と差分画像2の画素値とが異符号であり、かつ、絶対値が所定の閾値以上となる場合に、画素値を“1(白)”、それ以外の場合に“0(黒)”とすることでオブジェクト候補画像を生成することとした。これによって、画素値が“1(白)”となる領域を映像オブジェクトの候補として抽出することができる。ここで生成されたオブジェクト候補画像は、オブジェクト選定手段12に出力される。
The candidate
オブジェクト選定手段12は、オブジェクト候補画像生成手段11で生成されたオブジェクト候補画像の中から、抽出条件記憶手段13に記憶されている抽出条件情報131によって示される抽出条件に基づいて、抽出(追跡)対象となる映像オブジェクトを選定し、その映像オブジェクトの位置及び映像オブジェクトを特徴付ける特徴量を抽出するものである。ここで、オブジェクト選定手段12は、ラベリング部121と、特徴量解析部122と、フィルタ処理部123と、オブジェクト選択部124とを備える。
The
ラベリング部121は、オブジェクト候補画像生成手段11で生成されたオブジェクト候補画像の中で、映像オブジェクトの候補となる領域に対して番号(ラベル)を付すものである。すなわち、ラベリング部121は、映像オブジェクトの領域である“1(白)”の画素値を持つ連結した領域(連結領域)に対して1つの番号を付す。これによって、オブジェクト候補画像内の映像オブジェクトの候補が番号付けされたことになる。
The
特徴量解析部122は、ラベリング部121でラベリングされたラベルに対応する映像オブジェクトの候補を解析し、当該映像オブジェクトの候補の位置及び映像オブジェクトを特徴付ける特徴量を解析するものである。ここで、特徴量解析部122は、オブジェクト候補画像生成手段11の画像遅延部111から入力された、1フレーム遅延されたフレーム画像における、ラベリング部121でラベリングされたラベルに対応する映像オブジェクトに対応する領域の各々について、特徴量を解析する。そして、解析された映像オブジェクトの位置及び特徴量は、フィルタ処理部123に出力される。
The feature
ここで、映像オブジェクトの位置としては、映像オブジェクトの重心位置、多角形近似の頂点座標、スプライン曲線の制御点座標等を用いることができる。また、映像オブジェクトの特徴量には、例えば、映像オブジェクトの面積、輝度、色、円形度を用いることができる。 Here, as the position of the video object, the position of the center of gravity of the video object, the vertex coordinates of the polygon approximation, the control point coordinates of the spline curve, and the like can be used. For example, the area, brightness, color, and circularity of the video object can be used as the feature amount of the video object.
面積は、例えば、映像オブジェクトの画素数を示す。また、輝度は、映像オブジェクトにおける各画素の輝度の平均値を示す。また、色は、映像オブジェクトにおける各画素の色(例えばRGB値)の平均値を示す。なお、この色については、予め背景となる画像の背景色を初期値として、その背景色からの変化量を閾値としてもよい。円形度は、形状の複雑さを示す指標であって、円形に近いほど大きな値を有するものである。この円形度eは、映像オブジェクトの面積をS、周囲長をLとしたとき、以下の式(1)で表される。
e=4πS/L2 …(1)
The area indicates the number of pixels of the video object, for example. Further, the luminance indicates an average value of the luminance of each pixel in the video object. The color indicates an average value of colors (for example, RGB values) of each pixel in the video object. For this color, the background color of the background image may be set as an initial value, and the amount of change from the background color may be set as a threshold value. The circularity is an index indicating the complexity of the shape, and has a larger value as it becomes closer to a circle. The circularity e is expressed by the following equation (1), where S is the area of the video object and L is the perimeter.
e = 4πS / L 2 (1)
フィルタ処理部123は、ラベリング部121で番号付けされた映像オブジェクトの候補毎に、特徴量解析部122から入力された特徴量に基づいて、抽出条件記憶手段13に記憶されている抽出条件情報131によって示される抽出条件に合致する映像オブジェクトかどうかを判定することで、抽出(追跡)対象となる映像オブジェクトを絞り込むものである。ここで選択された映像オブジェクトのラベル及び位置は、オブジェクト選択部124に出力される。なお、抽出条件に適合する映像オブジェクトがない場合には、フィルタ処理部123は、その旨をID番号付加手段16に通知する。
The
すなわち、このフィルタ処理部123は、映像オブジェクトの候補毎に、抽出条件情報131によって示される抽出条件(例えば、面積、輝度、色及び円形度)や、フィルタ処理(面積フィルタ、輝度フィルタ、色フィルタ及び円形度フィルタ)を行うことで、抽出条件を満たす映像オブジェクトを選択する。
That is, for each video object candidate, the
オブジェクト選択部124は、フィルタ処理部123から入力されたラベルの映像オブジェクトの位置に基づいて、後記する位置予測手段14によって、前のフレーム画像の映像オブジェクトの位置に基づいて算出された当該映像オブジェクトの予測位置に最も近い映像オブジェクトを、追跡対象となる映像オブジェクトとして選択するものである。ここで選択された映像オブジェクトの位置は、当該フレーム画像内における映像オブジェクトの軌跡を示す位置情報として、位置予測手段14とID番号付加手段16とに出力される。また、ここで選択された映像オブジェクトの特徴量は、画像合成手段33の作画部331に出力される。
The
抽出条件記憶手段13は、オブジェクト選定手段12によって、抽出(追跡)対象となる映像オブジェクトを選択するための条件を記憶するもので、一般的なハードディスク等の記憶手段からなる。この抽出条件記憶手段13には、種々の抽出条件を示す抽出条件情報131を記憶している。
The extraction
抽出条件情報131は、抽出すべき映像オブジェクトの抽出条件を記述した情報であって、例えば、面積、輝度、色及び円形度の少なくとも1つ以上の抽出条件を記述したものである。この抽出条件情報131は、オブジェクト選定手段12のフィルタ処理部123が、オブジェクト候補画像生成手段11で生成されたオブジェクト候補画像から、抽出すべき映像オブジェクトを選択するためのフィルタ(面積フィルタ、輝度フィルタ、色フィルタ及び円形度フィルタ)の条件となるものである。
The extraction condition information 131 is information describing the extraction condition of the video object to be extracted, and describes, for example, at least one extraction condition of area, luminance, color, and circularity. This extraction condition information 131 is a filter (area filter, luminance filter) for the
なお、抽出条件情報131には、面積フィルタ、輝度フィルタ、色フィルタ及び円形度フィルタの条件として、予め定めた初期値と、その許容範囲を示す閾値とを記憶しておく。これによって、閾値外の特徴を持つ映像オブジェクトを抽出すべき映像オブジェクトの候補から外すことができる。 The extraction condition information 131 stores a predetermined initial value and a threshold value indicating an allowable range as conditions for the area filter, the luminance filter, the color filter, and the circularity filter. As a result, video objects having features outside the threshold can be excluded from video object candidates to be extracted.
位置予測手段14は、オブジェクト選定手段12のオブジェクト選択部124から入力された映像オブジェクトの位置情報に基づいて、次のフレーム画像における映像オブジェクトの予測位置を解析するものである。ここで、位置予測手段14は、線形予測部141と、曲線予測部142と、切替部143とを備える
The
線形予測部141は、オブジェクト選定手段12のオブジェクト選択部124から入力された映像オブジェクトの位置情報(重心座標等)に基づいて、線形予測を用いて、次のフレーム画像における映像オブジェクトの予測位置を算出するものである。ここで、線形予測部141は、例えば、重心座標にカルマンフィルタ(Kalman filter)等を適用することで、次のフレーム画像における映像オブジェクトの予測位置を算出することができる。ここで算出された予測位置は、切替部143に出力される。
The
曲線予測部142は、オブジェクト選定手段12のオブジェクト選択部124から入力された映像オブジェクトの位置情報(重心座標等)に基づいて、当該映像オブジェクトの軌跡を2次曲線近似して、次のフレーム画像における映像オブジェクトの予測位置を算出するものである。ここで算出された予測位置は、切替部143に出力される。
The
切替部143は、線形予測部141から入力された予測位置と、曲線予測部142から入力された予測位置とのいずれか一方を、次のフレーム画像の映像オブジェクトの予測位置として出力するものである。ここで、切替部143は、例えば、既に抽出された映像オブジェクトの位置情報が、曲線予測に必要となる所定数未満である場合には、線形予測部141から入力された予測位置を出力し、所定数以上である場合には、曲線予測部142から入力された予測位置を出力することとしてもよい。また、誤検出等によって、曲線予測部142における軌跡の2次曲線近似における係数の値が大きく変化した場合や、係数が所定値を超えた場合に、曲線予測部142から線形予測部141の予測位置に切り替えて出力することとしてもよい。ここで選択された予測位置は、オブジェクト選定手段12のオブジェクト選択部124と、探索領域設定手段15とに入力される。
The
探索領域設定手段15は、位置予測手段14によって算出された、次のフレーム画像における映像オブジェクトの予測位置に基づいて、次のフレーム画像における、映像オブジェクトの探索領域を設定するものである。なお、この探索領域とは、オブジェクト候補画像生成手段11によって次のフレーム画像からオブジェクト候補画像が生成される領域である。ここで設定された探索領域の位置と大きさは、オブジェクト候補画像生成手段11の候補画像生成部115に出力される。ここで、探索領域設定手段15は、図示しない入力手段から入力された大きさの領域を設定することとしてもよい。
The search
ID番号付加手段16は、オブジェクト選定手段12によって時系列に入力されるフレーム画像から連続して追跡された映像オブジェクトの位置情報を、同一の映像オブジェクトの一連の動きの軌跡を構成する位置情報であるとして、この軌跡を示す軌跡番号(軌跡情報)を設定し、更に、軌跡番号ごとに、位置情報に対して時系列に連続番号(ID番号)を付加するものである。ここで、ID番号付加手段16は、フィルタ処理部123から入力される、抽出条件に適合する映像オブジェクトがない通知に基づいて、オブジェクト選定手段12による一連の動きの映像オブジェクトの抽出が終了したと判断することができる。そして、ID番号が付加された位置情報は、映像オブジェクト位置情報記憶手段31に記憶される。
The ID
映像遅延手段20は、外部から入力された映像信号のフレーム画像を、後記する画像合成手段33によって合成される軌跡画像と同期させるために、所定数のフレーム分遅延させるものである。ここで遅延された映像信号は、映像オブジェクト軌跡付加手段30の画像合成手段33に出力される。
The video delay means 20 delays the frame image of the video signal input from the outside by a predetermined number of frames in order to synchronize with the trajectory image synthesized by the image synthesis means 33 described later. The video signal delayed here is output to the
映像オブジェクト軌跡付加手段(映像オブジェクト軌跡付加装置)30は、映像オブジェクト抽出手段10から入力された映像オブジェクトの位置情報に基づいて、映像遅延手段20から入力された映像信号のフレーム画像である現在フレーム画像より前に撮影された映像オブジェクトの軌跡(過去軌跡)を示す画像である過去軌跡画像(軌跡画像)を現在フレーム画像に合成して、軌跡付加映像を生成するものである。映像オブジェクト軌跡付加手段30は、映像オブジェクト位置情報記憶手段31と、軌跡画像位置設定手段32と、画像合成手段33とを備える。
The video object trajectory adding means (video object trajectory adding apparatus) 30 is a current frame which is a frame image of the video signal input from the video delay means 20 based on the position information of the video object input from the video
なお、ここでは映像オブジェクト軌跡付加手段30は、過去軌跡画像とともに、現在フレーム画像の映像オブジェクトの軌跡(現在軌跡)を示す現在軌跡画像も現在フレーム画像に合成することとした。そして、過去軌跡における最初の映像オブジェクトの位置が、現在軌跡における最初の映像オブジェクトの位置と一致するように、過去軌跡の表示位置を全体的にずらして合成することとした。更に、映像オブジェクト軌跡付加手段30は、図示しない入力手段から、過去軌跡画像の合成の指令を入力された場合には、過去軌跡画像と現在軌跡画像とを現在フレーム画像に合成することとし、過去軌跡画像の合成の指令が入力されない場合には、現在軌跡画像のみを現在フレーム画像に合成することとした。 Here, the video object trajectory adding means 30 combines the current trajectory image indicating the trajectory (current trajectory) of the video object of the current frame image with the current trajectory image together with the past trajectory image. Then, the display position of the past trajectory is shifted as a whole so that the position of the first video object in the past trajectory coincides with the position of the first video object in the current trajectory. Further, the video object trajectory adding means 30 synthesizes the past trajectory image and the current trajectory image into the current frame image when an instruction for synthesizing the past trajectory image is input from an input means (not shown). When no command for synthesizing the trajectory image is input, only the current trajectory image is synthesized with the current frame image.
映像オブジェクト位置情報記憶手段(映像オブジェクト位置情報記憶装置)31は、ID番号付加手段16から入力された映像オブジェクトの位置情報を記憶するもので、一般的なハードディスク等の記憶媒体である。ここで記憶される位置情報は、オブジェクト選定手段12によって抽出された映像オブジェクトの位置を示す情報であり、例えば、映像オブジェクトの重心位置とする。この位置情報は、軌跡画像位置設定手段32によって、過去軌跡画像を合成する位置を設定する際に、参照されて用いられる。
The video object position information storage means (video object position information storage device) 31 stores the position information of the video object input from the ID number adding means 16 and is a general storage medium such as a hard disk. The position information stored here is information indicating the position of the video object extracted by the object selection means 12, and is, for example, the barycentric position of the video object. This position information is referred to and used by the trajectory image
なお、ここでは、映像オブジェクト位置情報記憶手段31は、映像オブジェクトの位置情報と、軌跡番号(軌跡情報)とを対応させて記憶し、更に、各々の位置情報と、軌跡番号ごとに時系列に付されたID番号とを対応させて記憶することとした。ここで、図2を参照(適宜図1参照)して、映像オブジェクト位置情報記憶手段31に記憶される位置情報について説明する。図2は、映像オブジェクト位置情報記憶手段に記憶された位置情報の例を説明するための説明図、(a)は、1つの軌跡の映像オブジェクトの位置情報が入力された場合の、映像オブジェクト位置情報記憶手段に記憶された位置情報の例、(b)は、2つの軌跡の映像オブジェクトの位置情報が入力された場合の、映像オブジェクト位置情報記憶手段に記憶された位置情報の例である。 Here, the video object position information storage means 31 stores the position information of the video object and the trajectory number (trajectory information) in association with each other, and further, in time series for each position information and trajectory number. The assigned ID numbers are stored in correspondence with each other. Here, the position information stored in the video object position information storage means 31 will be described with reference to FIG. FIG. 2 is an explanatory diagram for explaining an example of the position information stored in the video object position information storage means, and (a) is a position of the video object when the position information of the video object of one trajectory is input. An example of the position information stored in the information storage means, (b) is an example of the position information stored in the video object position information storage means when the position information of the video object of two trajectories is input.
まず、映像オブジェクト位置情報記憶手段31には、ID番号付加手段16から、ID番号が付加された位置情報が入力される。ここで、映像オブジェクト位置情報記憶手段31に、ID番号付加手段16から、ID番号「1」が付加されている位置情報(x1,y1)が入力されたとする。なお、ここでは、例えば、フレーム画像の左下を原点とし、横方向にx軸、縦方向にy軸を設定したとする。そうすると、図2(a)に示すように、映像オブジェクト位置情報記憶手段31は、入力された位置情報C1(x1,y1)を軌跡番号「1」(T1)とID番号「1」(I1)とに対応させて記憶する。
First, the position information to which the ID number is added is input from the ID number adding means 16 to the video object position information storage means 31. Here, it is assumed that the position information (x 1 , y 1 ) to which the ID number “1” is added is input from the ID
そして、オブジェクト選定手段12によって、連続するフレーム画像から次の映像オブジェクトが抽出された場合には、映像オブジェクト位置情報記憶手段31には、ID番号付加手段16からID番号「2」が付加された位置情報(x2,y2)が入力される。そうすると、図2(a)に示すように、映像オブジェクト位置情報記憶手段31は、この位置情報C2(x2,y2)を軌跡番号「1」(T1)とID番号「2」(I2)とに対応させて記憶する。
When the next video object is extracted from the continuous frame image by the
そして、オブジェクト選定手段12によって、連続するフレーム画像から更にn1−2個の映像オブジェクトが順次抽出されたとする。そうすると、図2(a)に示すように、映像オブジェクト位置情報記憶手段31は、これらの位置情報C3、…、Cn((x3,y3)、…、(xn,yn))を軌跡番号「1」(T1)とID番号「3」、…、「n」(I3、…、In)とに対応させて記憶する。
Then, it is assumed that n 1 −2 video objects are sequentially extracted from the continuous frame images by the
ここで、映像オブジェクト抽出手段10によって、連続するフレーム画像から映像オブジェクトが抽出されなかったとする。そうすると、この通知がID番号付加手段16に入力され、この通知に基づいてID番号付加手段16は、映像オブジェクト位置情報記憶手段31に記憶された各々の軌跡番号に1を加えて書き換える。図2(a)では、映像オブジェクト位置情報記憶手段31に記憶されている軌跡番号「1」(T1)を「2」(図2(b)のT2)に書き換える。これによって、現在フレーム画像の映像オブジェクトの軌跡を示す軌跡番号が常に「1」になる。
Here, it is assumed that the video object is not extracted from the continuous frame images by the video object extraction means 10. Then, this notification is input to the ID number adding means 16, and based on this notification, the ID number adding means 16 adds 1 to each trajectory number stored in the video object position information storage means 31 and rewrites it. In FIG. 2A, the trajectory number “1” (T1) stored in the video object position
その後、映像オブジェクト抽出手段10によって、異なる軌跡を描く映像オブジェクトのうちの最初の映像オブジェクトが抽出された場合には、映像オブジェクト位置情報記憶手段31には、ID番号付加手段16からID番号「1」が付加された位置情報(xn+1,yn+1)が入力される。そして、図2(b)に示すように、映像オブジェクト位置情報記憶手段31は、この位置情報Cn+1(xn+1,yn+1)を軌跡番号「1」(T1’)とID番号「1」(In+1)とに対応させて記憶する。以上のようにして、映像オブジェクト位置情報記憶手段31は、軌跡番号と、ID番号とを位置情報に対応させて記憶することができる。
Thereafter, when the video
図1に戻って説明を続ける。軌跡画像位置設定手段32は、過去軌跡画像を、後記する画像合成手段33によって作画して合成する位置を設定するものである。ここで、軌跡画像位置設定手段32は、位置情報読み出し部321と、付加位置設定部322とを備える。
Returning to FIG. 1, the description will be continued. The trajectory image position setting means 32 sets the position where the past trajectory image is drawn and synthesized by the image synthesizing means 33 described later. Here, the trajectory image
位置情報読み出し部321は、現在フレーム画像より前に撮影された映像オブジェクトの軌跡の位置情報(過去軌跡位置情報)と、現在フレーム画像の映像オブジェクトと同一の軌跡番号(ここでは軌跡番号「1」)の位置情報とを、映像オブジェクト位置情報記憶手段31から読み出すものである。ここで、位置情報読み出し部321は、図示しない入力手段によって外部から過去軌跡画像の合成の指令とともに入力された軌跡番号に対応する位置情報を、映像オブジェクト位置情報記憶手段31から読み出す。なお、ここでは、位置情報読み出し部321は、過去軌跡画像の合成の指令とともに軌跡番号が入力されなかった場合には、現在フレーム画像の映像オブジェクトの1つ前の軌跡を示す軌跡番号(ここでは軌跡番号「2」)の位置情報を、映像オブジェクト位置情報記憶手段31から読み出すこととした。
The position information reading unit 321 includes the position information of the trajectory of the video object captured before the current frame image (past trajectory position information) and the same trajectory number as the video object of the current frame image (here, the trajectory number “1”). ) Position information is read out from the video object position information storage means 31. Here, the position information reading unit 321 reads position information corresponding to the trajectory number input from the outside together with a command for synthesizing the past trajectory image from an input unit (not shown) from the video object position
また、ここでは、過去軌跡の最初の映像オブジェクトの位置を現在軌跡の最初の映像オブジェクトの位置に一致させるため、位置情報読み出し部321は、現在フレーム画像の映像オブジェクトと同一の軌跡番号の位置情報のうち、ID番号が1である位置情報を読み出す。ここで読み出された位置情報は、付加位置設定部322に出力される。
Also, here, in order to match the position of the first video object in the past trajectory with the position of the first video object in the current trajectory, the position information reading unit 321 has position information of the same trajectory number as the video object of the current frame image. Among them, the position information whose ID number is 1 is read. The position information read here is output to the additional
付加位置設定部322は、位置情報読み出し部321から入力された位置情報に基づいて、過去軌跡画像の位置を設定するものである。ここで、付加位置設定部322は、位置情報読み出し部321から入力された過去軌跡の映像オブジェクトの位置情報によって示される位置を、現在軌跡の最初の映像オブジェクトの位置に合わせてシフトして、過去軌跡画像の位置を設定する。ここで設定された過去軌跡画像の位置は、画像合成手段33の合成部332に出力される。
The additional
ここでは、付加位置設定部322は、過去軌跡を示す位置情報と、現在軌跡の最初の映像オブジェクトの位置情報とに基づいて、過去軌跡画像の位置を設定する。ここで、図3を参照(適宜図1参照)して、過去軌跡画像の位置を設定する方法について説明する。図3は、付加位置設定部によって、過去軌跡画像の位置を設定する方法の例を説明するための説明図、(a)は、位置情報読み出し部によって読み出された過去軌跡の映像オブジェクトの位置情報と、現在軌跡の最初の映像オブジェクトの位置情報によって示される位置を模式的に示した模式図、(b)は、付加位置設定部によって設定された過去軌跡画像の位置を模式的に示した模式図である。なお、ここでは、フレーム画像の横方向にx軸、縦方向にy軸を設定している。
Here, the additional
位置情報読み出し部321によって、軌跡番号「k」の位置情報(ここでは重心座標とする)がnk個と、現在軌跡の最初(ID番号が「1」)の映像オブジェクトの位置情報とが読み出された場合に、図3(a)に示すように、軌跡番号が「k」、ID番号が「1」の位置情報Ck1を(xk1,yk1)、ID番号が「2」の位置情報Ck2を(xk2,yk2)、ID番号が「nk」の位置情報Cknkを(xknk,yknk)とし、現在軌跡の最初の映像オブジェクトの位置情報C0を(x0,y0)とする。 The position information reading unit 321 reads n k pieces of position information (here, centroid coordinates) of the trajectory number “k” and the position information of the first video object (ID number “1”) of the current trajectory. 3 (a), the location information Ck1 with the trajectory number “k”, the ID number “1” is (xk1, yk1), and the location information Ck2 with the ID number “2”, as shown in FIG. the (xk2, yk2), ID number is the position information Ckn k of "n k" and (xkn k, ykn k), currently the position information C0 of the first video object trajectory and (x0, y0).
そうすると、付加位置設定部322は、過去軌跡の最初(ID番号が「1」)の位置情報Ck1(xk1,yk1)を、現在軌跡の最初の映像オブジェクトの位置情報C0(x0,y0)に一致させるため、x、y軸方向に(x0−xk1,y0−yk1)だけ移動させて、過去軌跡画像の位置Dk1(x0,y0)に設定する。そして、過去軌跡のその他の位置情報Ck2、…、Cknkの位置も、x、y軸方向に(x0−xk1,y0−yk1)ずつ移動させ、過去軌跡画像の位置Dk2(xk2+x0−xk1,yk2+y0−yk1)、…、Dknk(xknk+x0−xk1,yknk+y0−yk1)とする。
Then, the additional
これによって、付加位置設定部322は、過去軌跡における最初の映像オブジェクトの位置が、現在軌跡における最初の映像オブジェクトの位置と一致するように、全体的にずらした位置に過去軌跡画像を合成する位置を設定することができる。
In this way, the additional
なお、ここでは、付加位置設定部322は、過去軌跡における最初の映像オブジェクトの位置を、現在軌跡における最初の映像オブジェクトの位置に設定することとしたが、過去軌跡画像を合成する位置の設定方法はこれに限定されることはない。例えば、過去軌跡における最初の映像オブジェクトの位置が、現在軌跡における最初の映像オブジェクトの位置から所定距離だけ上の位置になるように設定することとしてもよいし、現在フレーム画像の映像オブジェクトとID番号が同一の過去軌跡の映像オブジェクトの位置が、現在フレーム画像の映像オブジェクトの位置になるように設定することととしてもよい。
Here, the additional
図1に戻って説明を続ける。画像合成手段33は、映像遅延手段20から入力された映像信号のフレーム画像における、軌跡画像位置設定手段32によって設定された位置に、過去軌跡画像を作画して合成するものである。ここで、画像合成手段33は、作画部331と、合成部332とを備える。
Returning to FIG. 1, the description will be continued. The
作画部331は、付加位置設定部322から入力された位置に、過去軌跡画像を生成するとともに、現在フレーム画像の映像オブジェクトと同一の軌跡番号(ここでは軌跡番号「1」)の位置情報を読み出し、この位置情報によって示される位置に、映像オブジェクト抽出手段10のオブジェクト選定手段12から入力された映像オブジェクトの特徴量に基づいて、現在フレーム画像の映像オブジェクトの軌跡を示す現在軌跡画像を作画するものである。ここで作画された画像は、合成部332に出力される。
The
合成部332は、作画部331から入力された画像を、映像遅延手段20から入力された映像信号のフレーム画像に合成するものである。ここで合成されたフレーム画像からなる映像は、軌跡付加映像として外部に出力される。
The combining
以上、本発明に係る軌跡付加映像生成装置1の構成について説明したが、本発明はこれに限定されるものではない。例えば、ここでは、映像オブジェクト抽出手段10は、映像オブジェクトの抽出対象となるフレーム画像と、このフレーム画像より1フレーム前及び後に入力されたフレーム画像との2つの差分画像を生成して、映像オブジェクトを抽出することとしたが、映像オブジェクト抽出手段10の映像オブジェクトの抽出方法はこれに限定されることなく、フレーム画像ごとに映像オブジェクトの位置を検出できればよい。例えば、抽出対象となる映像オブジェクトの形状によって、映像オブジェクトをフレーム画像から検出することとしてもよいし、映像オブジェクトの色によって検出することとしてもよい。
The configuration of the trajectory-added
また、ここでは、映像オブジェクト位置情報記憶手段31が、映像オブジェクトの位置情報と、軌跡番号と、ID番号とを対応させて記憶することとし、位置情報読み出し部321が、過去軌跡の位置情報とともに、現在フレーム画像の映像オブジェクトと同一の軌跡番号の位置情報のうち、ID番号が1である位置情報を読み出すこととしたが、例えば、映像オブジェクト位置情報記憶手段31が、位置情報と軌跡番号のみを対応させて記憶するこことしてもよい。このとき、位置情報読み出し部321は、例えば、映像オブジェクトが映像中を左から右に移動する場合において、過去軌跡の位置情報とともに、現在フレーム画像の映像オブジェクトと同一の軌跡番号の位置情報のうちの、x座標の値が一番小さい位置情報を読み出すこととしてもよい。
Here, the video object position
更に、ここでは、ID番号付加手段16によって、軌跡番号を設定し、映像オブジェクト位置情報記憶手段31が、この軌跡番号と、映像オブジェクトの位置情報とを対応させて記憶することとしたが、軌跡情報は軌跡を特定できるものであればよい。例えば、軌跡付加映像生成装置1は、ID番号付加手段16を備えず、映像オブジェクト位置情報記憶手段31が、この映像オブジェクトが抽出されたフレーム画像の撮影された時刻等を軌跡情報とし、この軌跡情報と、位置情報とを対応させて記憶することとしてもよい。このとき、例えば、位置情報読み出し部321は、軌跡情報の時刻が連続する位置情報を一連の動きの軌跡を示す位置情報であるとして、外部から入力された指令に基づいて指定された軌跡の位置情報を読み出すことができる。また、映像オブジェクト位置情報記憶手段31が、例えば、位置情報をテキストデータ等として記憶することとし、軌跡ごとに行を変えて記録することとしてもよい。このとき、位置情報読み出し部321は、行番号を軌跡情報として任意の軌跡の位置情報を読み出すことができる。
Further, here, the trajectory number is set by the ID number adding means 16, and the video object position information storage means 31 stores the trajectory number and the position information of the video object in association with each other. Any information may be used as long as the locus can be specified. For example, the trajectory-added
また、ここでは、軌跡が付加される1つの映像を外部から入力し、映像オブジェクト位置情報記憶手段31には、位置情報として、この映像のフレーム画像における映像オブジェクトの2次元座標が記憶されて、付加位置設定部322がこの2次元座標に基づいて過去軌跡画像の位置を設定することとしたが、例えば、異なる場所から撮影された映像を更に外部から入力して、映像オブジェクトの3次元位置(3次元座標)を解析することとしてもよい。このとき、映像オブジェクト抽出手段10が、2つ以上の映像から抽出された映像オブジェクトの2次元座標と、撮影したカメラのカメラパラメータとに基づいて映像オブジェクトの3次元座標を解析して、この3次元座標を位置情報として映像オブジェクト位置情報記憶手段31に記憶することとしてもよい。また、映像オブジェクト抽出手段10によって2つ以上の映像から抽出された映像オブジェクトの2次元座標を位置情報として映像オブジェクト位置情報記憶手段31に記憶することとし、位置情報読み出し部321が、撮影したカメラのカメラパラメータと、読み出した位置情報とに基づいて3次元座標を解析することとしてもよい。そして、付加位置設定部322は、過去軌跡と現在軌跡の位置に基づいて、過去軌跡の3次元座標をあるシフト量だけシフトさせ、シフトされた3次元座標を透視投影変換等によって、フレーム画像における2次元座標に変換することで、映像に更に正確な過去軌跡を付加することができる。
In addition, here, one video to which a trajectory is added is input from the outside, and the video object position
なお、軌跡付加映像生成装置1の映像オブジェクト軌跡付加手段30は、一般的なコンピュータにプログラム(映像オブジェクト軌跡付加プログラム)を実行させ、コンピュータ内の演算装置や記憶装置を動作させることで実現することができる。
Note that the video object trajectory adding means 30 of the trajectory-added
[軌跡付加映像生成装置の動作]
次に、図4及び図5を参照(適宜図1参照)して、本発明における軌跡付加映像生成装置1の動作について説明する。図4は、本発明における軌跡付加映像生成装置が、フレーム画像から被写体の位置を抽出し、このフレーム画像に現在軌跡を示す現在軌跡画像と過去軌跡を示す過去軌跡画像とを付加した軌跡付加映像を生成する動作を示したフローチャートである。図5は、映像オブジェクト抽出手段が、フレーム画像から映像オブジェクトの位置を抽出する動作(映像オブジェクト抽出動作)を示したフローチャートである。
[Operation of locus added video generation device]
Next, with reference to FIGS. 4 and 5 (refer to FIG. 1 as appropriate), the operation of the trajectory-added
まず、図4を参照して、軌跡付加映像生成装置1の動作について説明する。軌跡付加映像生成装置1は、映像オブジェクト抽出手段10によって、後記する映像オブジェクト抽出動作によって、外部から入力されたフレーム画像から映像オブジェクトの位置を検出する(ステップS10)。そして、軌跡付加映像生成装置1は、映像オブジェクト抽出手段10によって、この映像オブジェクト抽出動作によって映像オブジェクトが抽出されたかを判断する(ステップS11)。そして、抽出されなかった場合には(ステップS11でNo)、そのままステップS23に進む。また、抽出された場合には(ステップS11でYes)、軌跡付加映像生成装置1は、映像オブジェクト軌跡付加手段30の映像オブジェクト位置情報記憶手段31に、ステップS10において抽出された映像オブジェクトの位置情報を記憶する(ステップS12)。
First, the operation of the trajectory-added
続いて、軌跡付加映像生成装置1は、軌跡画像位置設定手段32の位置情報読み出し部321によって、フレーム画像への過去軌跡画像の合成の指令を外部から入力したかを判断する(ステップS13)。そして、フレーム画像への過去軌跡画像の合成の指令を外部から入力していない場合には(ステップS13でNo)、軌跡付加映像生成装置1は、画像合成手段33の作画部331によって、映像オブジェクト位置情報記憶手段31から現在軌跡の位置情報を読み出し(ステップS20)、ステップS20において読み出された位置情報によって示される位置に現在軌跡画像を作画して(ステップS21)、ステップS22に進む。
Subsequently, the trajectory-added
一方、過去軌跡画像の合成の指令を入力した場合には(ステップS13でYes)、位置情報読み出し部321は、指令とともに合成する軌跡の軌跡番号を入力したかを判断する(ステップS14)。 On the other hand, when a command for synthesizing past trajectory images is input (Yes in step S13), the position information reading unit 321 determines whether the trajectory number of the trajectory to be combined with the command is input (step S14).
(軌跡画像位置設定ステップ)
そして、軌跡番号を入力していない場合には(ステップS14でNo)、軌跡付加映像生成装置1は、位置情報読み出し部321によって、映像オブジェクト位置情報記憶手段31から現在フレーム画像の映像オブジェクトの1つ前の軌跡を示す軌跡番号の位置情報と、現在軌跡の最初の映像オブジェクトの位置情報とを読み出し(ステップS15)、ステップS17に進む。また、軌跡番号を入力した場合には(ステップS14でYes)、軌跡付加映像生成装置1は、位置情報読み出し部321によって、映像オブジェクト位置情報記憶手段31から、入力された軌跡番号に対応する位置情報と、現在軌跡の最初の映像オブジェクトの位置情報とを読み出す(ステップS16)。そして、軌跡付加映像生成装置1は、付加位置設定部322によって、ステップS15又はステップS16において読み出された位置情報に基づいて、現在フレーム画像内に過去軌跡画像を合成する位置を設定する(ステップS17)。
(Track image position setting step)
If no trajectory number has been input (No in step S14), the trajectory-added
更に、軌跡付加映像生成装置1は、画像合成手段33の作画部331によって、映像オブジェクト位置情報記憶手段31から現在軌跡の位置情報を読み出す(ステップS18)。
Further, the locus-added
(画像合成ステップ)
続いて、軌跡付加映像生成装置1は、作画部331によって、ステップS17において設定された位置に過去軌跡画像を作画し、ステップS18において読み出された位置情報によって示される位置に現在軌跡画像を作画する(ステップS19)。更に、軌跡付加映像生成装置1は、合成部332によって、ステップS19又はステップS21において作画された画像を、現在フレーム画像に合成する(ステップS22)。
(Image composition step)
Subsequently, the trajectory-added
そして、軌跡付加映像生成装置1は、映像オブジェクト抽出手段10によって、新たなフレーム画像が外部から入力されたかを判断する(ステップS23)。そして、新たな画像が入力された場合には(ステップS23でYes)、ステップS10に戻って、入力されたフレーム画像から映像オブジェクトを抽出する映像オブジェクト抽出動作以降の動作を行う。また、新たなフレーム画像が入力されなかった場合には(ステップS23でNo)、そのまま動作を終了する。
Then, the trajectory-added
[映像オブジェクト抽出動作]
次に図5を参照(適宜図1参照)して、軌跡付加映像生成装置1が映像オブジェクト抽出手段10(映像オブジェクト検出装置)によって、外部から入力されたフレーム画像から映像オブジェクトを抽出する、映像オブジェクト抽出動作(図4のステップS10)について説明する。
[Video object extraction operation]
Next, referring to FIG. 5 (refer to FIG. 1 as appropriate), the trajectory-added
まず、軌跡付加映像生成装置1は、映像オブジェクト抽出手段10の探索領域設定手段15によって、位置予測手段14で、外部から入力されたフレーム画像の2つ前のフレーム画像(抽出対象となるフレーム画像の1つ前のフレーム画像)内の映像オブジェクトの位置から算出された予測位置に基づいて、映像オブジェクトの探索領域を設定する(ステップS40)。なお、抽出対象となるフレーム画像の1つ前のフレーム画像の映像オブジェクトについて、位置予測手段14によって予測位置が算出されていない場合には、軌跡付加映像生成装置1は、フレーム画像の全領域、あるいは、指定された領域を設定する。そして、軌跡付加映像生成装置1は、オブジェクト候補画像生成手段11によって、差分画像1及び差分画像2を生成し、外部から入力されたフレーム画像の1つ前のフレーム画像(抽出対象となるフレーム画像)から、ステップS40において設定された探索領域についてオブジェクト候補画像を生成する(ステップS41)。
First, the trajectory-added
更に、軌跡付加映像生成装置1は、オブジェクト選定手段12のラベリング部121によって、映像オブジェクトの候補となる領域に対してラベルを付す(ステップS42)。そして、軌跡付加映像生成装置1は、特徴量解析部122によって、ステップS42においてラベリングされたラベルに対応する映像オブジェクトの候補の位置と特徴量とを解析する(ステップS43)。続いて、軌跡付加映像生成装置1は、フィルタ処理部123によって、ステップS43において解析された特徴量に基づいて、ステップS42においてラベリングされたラベルに対応する映像オブジェクトの候補から抽出対象となる映像オブジェクトを絞り込むフィルタ処理を行う(ステップS44)。ここで、フィルタ処理部123は、各々の映像オブジェクトの候補の特徴量が、抽出条件記憶手段13に記憶されている抽出条件情報131によって示される抽出条件に適合するかを判断することで、フィルタ処理を行う。
Further, the locus-added
更に、軌跡付加映像生成装置1は、フィルタ処理部123によって、ステップS44において行ったフィルタ処理において、抽出条件に適合する映像オブジェクトがないかを判断する(ステップS45)。そして、抽出条件に適合する映像オブジェクトがない場合には(ステップS45でYes)、軌跡付加映像生成装置1は、フィルタ処理部123によって、このフレーム画像内には抽出対象となる映像オブジェクトがないと判断して、そのまま動作を終了する。また、抽出条件に適合する映像オブジェクトがある場合には(ステップS45でNo)、軌跡付加映像生成装置1は、オブジェクト選択部124によって、ステップS44においてフィルタ処理された、抽出条件に適合する映像オブジェクトの中から、抽出対象となる映像オブジェクトを選択する(ステップS46)。ここで、オブジェクト選択部124は、抽出条件に適合する映像オブジェクトのうち、位置予測手段14によって抽出対象となるフレーム画像の1つ前のフレーム画像の映像オブジェクトの位置から算出された予測位置に最も近い映像オブジェクトを、抽出対象となる映像オブジェクトとして選択する。
Furthermore, the trajectory-added
そして、軌跡付加映像生成装置1は、ID番号付加手段16によって、ステップS46において選択された映像オブジェクトの位置を示す位置情報にID番号を付加する(ステップS47)。また、軌跡付加映像生成装置1は、位置予測手段14によって、ステップ45によって選択された映像オブジェクトの位置に基づいて次のフレーム画像における映像オブジェクトの予測位置を算出し(ステップS48)、動作を終了する。なお、ここで算出された予測位置は、探索領域設定手段15によって、次の抽出対象となるフレーム画像において探索領域を設定する際(ステップS40)と、オブジェクト選定手段12のオブジェクト選択部124によって、次の抽出対象となるフレーム画像において映像オブジェクトを選択する際(ステップS46)に用いられる。
The trajectory-added
1 軌跡付加映像生成装置
10 映像オブジェクト抽出手段(映像オブジェクト検出装置)
20 映像遅延手段
30 映像オブジェクト軌跡付加手段(映像オブジェクト軌跡付加装置)
31 映像オブジェクト位置情報記憶手段(映像オブジェクト位置情報記憶装置)
32 軌跡画像位置設定手段
33 画像合成手段
DESCRIPTION OF
20 video delay means 30 video object trajectory adding means (video object trajectory adding apparatus)
31 Video object position information storage means (video object position information storage device)
32 Trajectory image position setting means 33 Image composition means
Claims (2)
前記映像オブジェクト検出装置から入力される、前記複数のフレーム画像に連続して含まれる前記映像オブジェクトの位置情報である過去軌跡位置情報を、前記軌跡を特定する軌跡情報と対応させて記憶する映像オブジェクト位置情報記憶手段と、
この映像オブジェクト位置情報記憶手段から、任意の前記軌跡情報に対応する前記過去軌跡位置情報を読み出して、前記他のフレーム画像の映像オブジェクトの位置情報あるいは当該映像オブジェクトの軌跡の位置情報に基づいて前記過去軌跡位置情報によって示される位置をシフトさせるシフト量を設定するとともに、前記シフト量だけ当該過去軌跡位置情報によって示される位置をシフトさせた過去軌跡位置を設定する軌跡画像位置設定手段と、
前記軌跡画像位置設定手段によって設定された、前記他のフレーム画像の過去軌跡位置に、前記軌跡画像を合成する画像合成手段とを備えることを特徴とする映像オブジェクト軌跡付加装置。 Position information indicating the position of the video object in the frame image is input from a video object detection device that detects the position of the video object in the frame image input in time series, and a plurality of the time-series input A video object trajectory adding apparatus for adding a trajectory image indicating a trajectory of the video object continuously included in a frame image to another frame image captured from a position where the frame image is captured,
Video object for storing past trajectory position information, which is input from the video object detection device, that is position information of the video object continuously included in the plurality of frame images, in association with trajectory information for specifying the trajectory Position information storage means;
The past trajectory position information corresponding to the arbitrary trajectory information is read out from the video object position information storage means, and the video object position information of the other frame image or the position information of the trajectory of the video object is used. A trajectory image position setting unit that sets a shift amount for shifting the position indicated by the past trajectory position information and sets a past trajectory position obtained by shifting the position indicated by the past trajectory position information by the shift amount;
An image object trajectory adding apparatus, comprising: an image compositing means for compositing the trajectory image with a past trajectory position of the other frame image set by the trajectory image position setting means.
この映像オブジェクト位置情報記憶装置から、任意の前記軌跡情報に対応する前記過去軌跡位置情報を読み出して、前記他のフレーム画像の映像オブジェクトの位置情報あるいは当該映像オブジェクトの軌跡の位置情報に基づいて前記過去軌跡位置情報によって示される位置をシフトさせるシフト量を設定するとともに、前記シフト量だけ当該過去軌跡位置情報によって示される位置をシフトさせた過去軌跡位置を設定する軌跡画像位置設定手段、
前記軌跡画像位置設定手段によって設定された、前記他のフレーム画像の過去軌跡位置に、前記軌跡画像を合成する画像合成手段として機能させることを特徴とする映像オブジェクト軌跡付加プログラム。 The position information of the video object that is continuously included in a plurality of frame images input in time series, detected by a video object detection device that detects the position of the video object in a frame image input in time series. The past trajectory position information is read out from the video object position information storage device that stores the past trajectory position information in correspondence with the trajectory information that specifies the trajectory of the video object, and the trajectory image indicating the trajectory is represented by the frame image. The computer to add to other frame images taken from the location where it was taken,
The past trajectory position information corresponding to the arbitrary trajectory information is read from the video object position information storage device, and the video object position information of the other frame image or the position information of the trajectory of the video object is used. A trajectory image position setting means for setting a shift amount for shifting the position indicated by the past trajectory position information, and for setting a past trajectory position obtained by shifting the position indicated by the past trajectory position information by the shift amount;
A video object trajectory addition program which causes an image composition means for compositing the trajectory image to a past trajectory position of the other frame image set by the trajectory image position setting means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004339606A JP4546810B2 (en) | 2004-11-24 | 2004-11-24 | Trajectory-added video generation apparatus and trajectory-added video generation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004339606A JP4546810B2 (en) | 2004-11-24 | 2004-11-24 | Trajectory-added video generation apparatus and trajectory-added video generation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006146823A true JP2006146823A (en) | 2006-06-08 |
JP4546810B2 JP4546810B2 (en) | 2010-09-22 |
Family
ID=36626402
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004339606A Expired - Fee Related JP4546810B2 (en) | 2004-11-24 | 2004-11-24 | Trajectory-added video generation apparatus and trajectory-added video generation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4546810B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010084902A1 (en) * | 2009-01-22 | 2010-07-29 | 株式会社日立国際電気 | Intrusion alarm video processing device |
US8918906B2 (en) | 2010-10-29 | 2014-12-23 | Panasonic Corporation | Communication service system |
CN108734049A (en) * | 2017-04-13 | 2018-11-02 | 佳能株式会社 | Image processing method and device and image processing system |
CN112887515A (en) * | 2021-01-26 | 2021-06-01 | 维沃移动通信有限公司 | Video generation method and device |
CN117557789A (en) * | 2024-01-12 | 2024-02-13 | 国研软件股份有限公司 | Intelligent detection method and system for offshore targets |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06105231A (en) * | 1992-09-24 | 1994-04-15 | Namco Ltd | Picture synthesis device |
JPH07160856A (en) * | 1993-12-01 | 1995-06-23 | Mitsui Constr Co Ltd | Locus acquiring device of moving object |
JP2004164563A (en) * | 2002-09-26 | 2004-06-10 | Toshiba Corp | Image analysis method, image analysis apparatus, image analysis program |
-
2004
- 2004-11-24 JP JP2004339606A patent/JP4546810B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06105231A (en) * | 1992-09-24 | 1994-04-15 | Namco Ltd | Picture synthesis device |
JPH07160856A (en) * | 1993-12-01 | 1995-06-23 | Mitsui Constr Co Ltd | Locus acquiring device of moving object |
JP2004164563A (en) * | 2002-09-26 | 2004-06-10 | Toshiba Corp | Image analysis method, image analysis apparatus, image analysis program |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010084902A1 (en) * | 2009-01-22 | 2010-07-29 | 株式会社日立国際電気 | Intrusion alarm video processing device |
JP5325899B2 (en) * | 2009-01-22 | 2013-10-23 | 株式会社日立国際電気 | Intrusion alarm video processor |
US8918906B2 (en) | 2010-10-29 | 2014-12-23 | Panasonic Corporation | Communication service system |
CN108734049A (en) * | 2017-04-13 | 2018-11-02 | 佳能株式会社 | Image processing method and device and image processing system |
CN112887515A (en) * | 2021-01-26 | 2021-06-01 | 维沃移动通信有限公司 | Video generation method and device |
CN112887515B (en) * | 2021-01-26 | 2023-09-19 | 维沃移动通信有限公司 | Video generation method and device |
CN117557789A (en) * | 2024-01-12 | 2024-02-13 | 国研软件股份有限公司 | Intelligent detection method and system for offshore targets |
CN117557789B (en) * | 2024-01-12 | 2024-04-09 | 国研软件股份有限公司 | Intelligent detection method and system for offshore targets |
Also Published As
Publication number | Publication date |
---|---|
JP4546810B2 (en) | 2010-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11758082B2 (en) | System for automatic video reframing | |
JP4181473B2 (en) | Video object trajectory synthesis apparatus, method and program thereof | |
CN105830009B (en) | Method for video processing and equipment | |
TWI352937B (en) | Motion compensated frame rate conversion | |
JP4991101B2 (en) | Temporary motion vector filtering | |
KR101092287B1 (en) | Image processing apparatus and image processing method | |
JP5035053B2 (en) | Non-linear video playback control method and non-linear video playback control program | |
JP2010239605A (en) | Video editing device | |
JP2006003871A (en) | Image frame processing method and device, rendering processor and moving image display method | |
JP2009110536A (en) | Image frame processing method and device, rendering processor and moving image display method | |
JP4555690B2 (en) | Trajectory-added video generation apparatus and trajectory-added video generation program | |
US20160379682A1 (en) | Apparatus, method and computer program | |
US20160381290A1 (en) | Apparatus, method and computer program | |
JPWO2017081839A1 (en) | MOBILE BODY TRACKING METHOD, MOBILE BODY TRACKING DEVICE, AND PROGRAM | |
JP6983049B2 (en) | Object tracking device and its program | |
JP4490752B2 (en) | Video object extraction device, video object trajectory synthesis device, method and program thereof | |
US10789987B2 (en) | Accessing a video segment | |
Chan et al. | On the hardware/software design and implementation of a high definition multiview video surveillance system | |
JP4546810B2 (en) | Trajectory-added video generation apparatus and trajectory-added video generation program | |
JPWO2013008374A1 (en) | Video area detector | |
JP4441354B2 (en) | Video object extraction device, video object trajectory synthesis device, method and program thereof | |
JP2006244074A (en) | Moving object close-up frame detection method and program, storage medium storing program, moving object close-up shot detection method, moving object close-up frame or shot detection method and program, and storage medium storing program | |
CN115297313A (en) | Micro-display dynamic compensation method and system | |
JP2007060192A (en) | Interpolating frame generator, its method, image display system and program and recording medium | |
US20240312121A1 (en) | Information processing apparatus and method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070409 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100316 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100511 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100608 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100702 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130709 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4546810 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140709 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |