JP6613686B2 - Movie display device, movie display method, and program - Google Patents
Movie display device, movie display method, and program Download PDFInfo
- Publication number
- JP6613686B2 JP6613686B2 JP2015150137A JP2015150137A JP6613686B2 JP 6613686 B2 JP6613686 B2 JP 6613686B2 JP 2015150137 A JP2015150137 A JP 2015150137A JP 2015150137 A JP2015150137 A JP 2015150137A JP 6613686 B2 JP6613686 B2 JP 6613686B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- predetermined
- unit
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 38
- 238000001514 detection method Methods 0.000 claims description 17
- 238000005520 cutting process Methods 0.000 claims description 2
- 238000004519 manufacturing process Methods 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 25
- 238000003384 imaging method Methods 0.000 description 15
- 238000003860 storage Methods 0.000 description 14
- 238000011161 development Methods 0.000 description 7
- 238000009826 distribution Methods 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013519 translation Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000002939 conjugate gradient method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本発明は、動画表示装置、動画表示方法、およびプログラムに関する。 The present invention relates to a moving image display device, a moving image display method, and a program.
監視カメラによる監視やスポーツ中継等を目的として、広角で撮像して得られる動画像から、所定画像を自動的に追跡し、当該所定画像を拡大表示する技術が考案されている。 For the purpose of monitoring by a surveillance camera, sports broadcasting, and the like, a technique has been devised that automatically tracks a predetermined image from a moving image obtained by imaging at a wide angle and displays the predetermined image in an enlarged manner.
例えば、特許文献1には、動画像内で動いている画像(以下、動き画像と言う)をユーザにより指定可能に表示し、ユーザにより指定された動き画像を、動画像に合成して表示する映像表示装置が開示されている。また、特許文献2には、動画像の各フレームからオブジェクトの位置を検出し、当該オブジェクトの検出結果に基づいて、動画像の各フレームにおける注目領域を決定する技術が開示されている。
For example, in
ところで、広角での撮像に魚眼カメラや全方位カメラを用いた場合、一度の撮像によって極めて広い視野の画像を得ることができるので、利便性が高いが、魚眼カメラや全方位カメラの撮像により得られた画像には歪みが含まれるため、当該画像に含まれる所定画像を部分的に切り出して歪みを補正した上で、当該所定画像を追跡する必要がある。そこで、特許文献3,4,5には、魚眼カメラや全方位カメラの撮像により得られた画像に適した、所定画像の追跡方法が考案されている。
By the way, when a fish-eye camera or an omnidirectional camera is used for wide-angle imaging, an image with a very wide field of view can be obtained by a single imaging. Since the image obtained by the above includes distortion, it is necessary to track the predetermined image after correcting the distortion by partially cutting out the predetermined image included in the image. Therefore,
しかしながら、魚眼カメラまたは全方位カメラの撮像により得られた動画像から所定画像を切り出して表示した場合、動画像のいずれの部分を切り出した所定画像が表示されているのかが分かり辛い。そこで、所定画像とともに動画像を表示することによって当該動画像のいずれの部分を切り出した所定画像が表示されているかを分かり易くする方法があるが、180度以上の画角で撮像して得られた動画像を平面に対して歪み無く表示することは難しく、動画像内における所定画像に対応する領域の視認性が悪くなる。 However, when a predetermined image is cut out and displayed from a moving image obtained by imaging with a fisheye camera or an omnidirectional camera, it is difficult to determine which portion of the moving image is displayed. Therefore, there is a method of displaying a moving image together with a predetermined image so that it is easy to understand which portion of the moving image is cut out, but it is obtained by capturing an image with an angle of view of 180 degrees or more. It is difficult to display a moving image without distortion on a plane, and visibility of a region corresponding to a predetermined image in the moving image is deteriorated.
特許文献3には、所定画像の移動経路に沿って、動画像からの所定画像の切り出し位置をパンニングさせたり、動画像の倍率を徐々に変えるズーミングを行ったりすることで、動画像内における所定画像に対応する領域の位置を把握し易く方法が記載されている。しかし、当該方法では、動画像内から直接的に所定画像に対応する領域を認識することができず、動画像の表示中に、所定画像が移動する場合、動画像内における所定画像に対応する領域が分からなくなる。 In Patent Document 3, a predetermined image in a moving image is panned by panning a cutout position of the predetermined image from the moving image or zooming that gradually changes the magnification of the moving image along the moving path of the predetermined image. A method is described in which the position of the region corresponding to the image can be easily grasped. However, in this method, the region corresponding to the predetermined image cannot be directly recognized from the moving image, and when the predetermined image moves while the moving image is displayed, the region corresponds to the predetermined image in the moving image. The area is unknown.
本発明は、上記に鑑みてなされたものであって、動画像に含まれる所定画像を切り出して表示する場合に、動画像における所定画像に対応する領域を把握し易くする動画表示装置、動画表示方法、およびプログラムを提供することを目的とする。 The present invention has been made in view of the above, and when a predetermined image included in a moving image is cut out and displayed, a moving image display device and a moving image display that make it easy to grasp a region corresponding to the predetermined image in the moving image It is an object to provide a method and a program.
上述した課題を解決し、目的を達成するために、本発明は、動画像を構成するフレームから、当該フレーム内の一部でありかつ所定画像を含む第1画像を切り出す切出部と、フレーム内の所定画像の歪みを所定以下とさせた第2画像を生成する生成部と、第2画像における第1画像に対応する領域の表示態様を他の領域と異ならせて表示させる表示制御部と、前記フレーム内における前記所定画像の位置を検出する検出部と、前記第2画像を表示済みの前記フレームからの前記所定画像の位置の検出履歴に基づいて、前記動画像において前記所定画像が動く第1範囲を予測する予測部と、を備え、前記生成部は、前記第1範囲の歪みを前記所定以下とさせた前記第2画像を生成する、ことを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention provides a cutout unit that cuts out a first image that is a part of a frame and includes a predetermined image from a frame that forms a moving image, A generation unit that generates a second image in which the distortion of the predetermined image is less than or equal to a predetermined value, and a display control unit that displays the display mode of the region corresponding to the first image in the second image differently from other regions The predetermined image moves in the moving image based on a detection unit that detects the position of the predetermined image in the frame and a detection history of the position of the predetermined image from the frame on which the second image has been displayed. A predicting unit that predicts a first range, wherein the generating unit generates the second image in which the distortion of the first range is equal to or less than the predetermined value .
本発明によれば、動画像に含まれる所定画像を切り出して表示する場合に、動画像における、所定画像に対応する領域を把握し易くすることができる、という効果を奏する。 According to the present invention, when a predetermined image included in a moving image is cut out and displayed, it is possible to easily grasp a region corresponding to the predetermined image in the moving image.
以下に添付図面を参照して、動画表示装置、動画表示方法、およびプログラムの実施の形態を詳細に説明する。 Exemplary embodiments of a moving image display device, a moving image display method, and a program will be described below in detail with reference to the accompanying drawings.
(第1の実施の形態)
図1Aは、第1の実施の形態にかかる動画表示装置のハードウェア構成の一例を示すブロック図である。図1Aに示すように、本実施の形態にかかる動画表示装置は、動画閲覧装置10と、記憶装置20と、入出力装置30と、画像表示装置40(表示部の一例)と、を備えている。動画閲覧装置10は、画像表示装置40に対する各種画像の表示を制御する。記憶装置20は、画像表示装置40に対して表示する動画像等の各種情報を記憶する。入出力装置30は、動画表示装置のユーザが各種操作を入力するための操作部である。画像表示装置40は、動画閲覧装置10により制御され、動画像等を表示する表示部である。
(First embodiment)
FIG. 1A is a block diagram illustrating an example of a hardware configuration of the moving image display apparatus according to the first embodiment. As shown in FIG. 1A, the moving image display device according to the present embodiment includes a moving image browsing device 10, a storage device 20, an input /
図1Bは、第1の実施の形態にかかる動画閲覧装置の機能構成の一例を示すブロック図である。本実施の形態では、動画閲覧装置10は、図1Bに示すように、フレーム読込部101と、注目物体決定部102と、注目物体追跡部103と、部分画像生成部104と、全体画像生成部105と、注目物体領域強調部106と、画像表示部107と、を有している。
FIG. 1B is a block diagram illustrating an example of a functional configuration of the moving image browsing apparatus according to the first embodiment. In the present embodiment, as shown in FIG. 1B, the moving image browsing apparatus 10 includes a
次に、図2を用いて、本実施の形態にかかる動画表示装置における動画像の表示処理について説明する。図2は、第1の実施の形態にかかる動画表示装置における動画像の表示処理の流れの一例を示すフローチャートである。 Next, a moving image display process in the moving image display apparatus according to the present embodiment will be described with reference to FIG. FIG. 2 is a flowchart illustrating an exemplary flow of a moving image display process in the moving image display apparatus according to the first embodiment.
まず、フレーム読込部101は、入出力装置30から入力された操作情報に従って、記憶装置20から、表示対象の動画像を、1フレームずつ読み込む(ステップS201)。ここで、表示対象の動画像は、魚眼カメラや全方位カメラ等の180度を超える画角で撮像可能な撮像機器の撮像により得られ、かつ複数のフレームから構成される動画像の一例である。すなわち、表示対象の動画像は、広角での撮像により得られる動画像である。本実施の形態では、表示対象の動画像は、記憶装置20に記憶された動画像のうち、入出力装置30を介してユーザにより表示が指示された動画像である。
First, the
フレーム読込部101は、まず、表示対象の動画像の最初のフレームまたは入出力装置30を介してユーザにより指示されたフレームから順に読み込む。2回目以降のフレームの読み込みにおいては、フレーム読込部101は、前回読み込んだフレームの次のフレームを読み込む。本実施の形態では、フレーム読込部101は、記憶装置20から、動画像を構成するフレームを読み込んでいるが、これに限定するものではなく、例えば、魚眼カメラや全方位カメラ等の広角で撮像可能な撮像機器から、直接、フレームを取得しても良い。
First, the
次に、注目物体決定部102は、読み込んだフレーム内において、入出力装置30を介してユーザにより指定された画像である注目物体(所定画像の一例)を決定する(ステップS202)。図3は、第1の実施の形態にかかる動画表示装置におけるフレームの表示例を示す図である。本実施の形態では、画像表示部107は、図3に示すように、フレーム読込部101により読み込まれたフレームを画像表示装置40に表示する。
Next, the target
そして、注目物体決定部102は、図3に示すように、画像表示装置40に表示されたフレーム内において、入出力装置30を介してユーザにより指定された領域(例えば、矩形状の領域R)内の画像を、注目物体ATとして決定する。注目物体決定部102は、フレーム読込部101によってフレームが読み込まれる度に注目物体を決定する必要は無く、入出力装置30を介してユーザによってフレーム内の領域が指定されなかった場合には、ユーザにより最後に指定された領域内の画像を注目物体とし続ける。
Then, as shown in FIG. 3, the object-of-
すなわち、注目物体決定部102は、基本的に、表示対象の動画像から最初にフレームを読み込んだ際に注目物体の決定を一度行えば良い。したがって、注目物体決定部102は、後述する注目物体追跡部103による注目物体の追跡に失敗した場合、若しくは動画像の表示中に、入出力装置30を介してユーザによって新たな領域が指定された場合に、注目物体を決定しなおすものとする。
That is, the object-of-
注目物体追跡部103(検出部の一例)は、フレーム読込部101によりフレームが読み込まれる度に、最後に読み込まれたフレーム(以下、カレントフレームと言う)内における注目物体の位置を検出することによって、当該注目物体を追跡する(ステップS203)。本実施の形態では、注目物体追跡部103は、非特許文献1に記載された一般的な物体位置検出方法を用いて、カレントフレーム内における注目物体の位置を検出する。ただし、注目物体追跡部103は、注目物体決定部102によって注目物体が決定されなかった場合、カレントフレーム内における注目物体の位置の検出を行わない。
The target object tracking unit 103 (an example of a detection unit) detects the position of the target object in the last read frame (hereinafter referred to as the current frame) every time the frame is read by the
部分画像生成部104(切出部の一例)は、カレントフレームから、当該カレントフレームの一部でありかつ注目物体追跡部103により検出した位置の注目物体を含む画像を切り出して、当該切り出した画像を部分画像(第1画像の一例)として生成する(ステップS204)。図4は、第1の実施の形態にかかる動画表示装置における部分画像の生成処理を説明するための図である。本実施の形態では、部分画像生成部104は、図4に示すように、カレントフレームを、単位球Bで表現したカレントフレーム単位球CBを取得する。具体的には、部分画像生成部104は、カレントフレームが、魚眼カメラまたは全方位カメラの撮像により得られたフレームである場合、射影方式に基づいて、カレントフレームの撮影方向を特定し、当該撮影方向から、カレントフレームを単位球面にプロットすることによって、カレントフレーム単位球CBを取得する(特許文献3参照)。
The partial image generation unit 104 (an example of a cutout unit) cuts out an image including a target object at a position that is a part of the current frame and detected by the target object tracking unit 103 from the current frame, and the cutout image Is generated as a partial image (an example of a first image) (step S204). FIG. 4 is a diagram for explaining a partial image generation process in the moving image display apparatus according to the first embodiment. In the present embodiment, the partial
そして、部分画像生成部104は、カレントフレーム単位球CBの一部でありかつ注目物体ATを含む画像を、中心(投影中心O)として、2次元平面(投影面S)に透視投影した画像を部分画像として生成する。
Then, the partial
全体画像生成部105(生成部の一例)は、カレントフレーム内の注目物体の歪みを所定値以下とさせた全体画像(第2画像の一例)を生成する(ステップS205)。本実施の形態では、全体画像生成部105は、カレントフレームをパノラマ展開した全体画像を生成する。例えば、全体画像生成部105は、正距円筒図法を用いて、カレントフレーム内の注目物体の歪みが所定値以下になるように、カレントフレームをパノラマ展開する。これにより、カレントフレームを正距円筒図法を用いてパノラマ展開した場合でも、全体画像における注目物体に対応する領域を把握し易くすることができる。図5および図6は、第1の実施の形態にかかる動画表示装置におけるパノラマ展開を説明するための図である。具体的には、全体画像生成部105は、図5に示すように、カレントフレーム単位球CBの撮影方向Dを、経度θおよび緯度ψで表し、かつカレントフレーム単位球CBを、経度θと緯度ψの2次元直交座標系で表された全体画像G(所謂、正距円筒画像)に変換する。 The entire image generation unit 105 (an example of the generation unit) generates an entire image (an example of a second image) in which the distortion of the object of interest in the current frame is set to a predetermined value or less (step S205). In the present embodiment, the entire image generation unit 105 generates an entire image obtained by panoramic development of the current frame. For example, the whole image generation unit 105 uses the equirectangular projection to panoramicly develop the current frame so that the distortion of the object of interest in the current frame is a predetermined value or less. Thereby, even when the current frame is panorama developed using equirectangular projection, it is possible to easily grasp the region corresponding to the object of interest in the entire image. 5 and 6 are diagrams for explaining panoramic development in the moving image display apparatus according to the first embodiment. Specifically, as shown in FIG. 5, the entire image generation unit 105 represents the shooting direction D of the current frame unit sphere CB as longitude θ and latitude ψ, and represents the current frame unit sphere CB as longitude θ and latitude. The whole image G (so-called equirectangular image) expressed in the two-dimensional orthogonal coordinate system of ψ is converted.
正距円筒図法では、図6に示すように、カレントフレーム単位球CBにおける注目物体ATの位置の緯度ψが大きくなるに従い、全体画像G中の注目物体は水平方向に引き伸ばされる。一方、正距円筒図法では、図6に示すように、カレントフレーム単位球CBにおける注目物体の位置の緯度ψが0度において、全体画像G中の注目物体の歪みが最も小さくなる。そこで、全体画像生成部105は、カレントフレーム単位球CBに含まれる注目物体ATの位置の緯度ψを0度に設定する。次いで、全体画像生成部105は、注目物体ATの位置が緯度ψ:0度に設定されたカレントフレーム単位球CBをパノラマ展開した全体画像Gを生成する。これにより、全体画像生成部105は、カレントフレーム内の注目物体の歪みが小さい全体画像Gを得ることができる。 In the equirectangular projection, as shown in FIG. 6, as the latitude ψ of the position of the object of interest AT in the current frame unit sphere CB increases, the object of interest in the entire image G is stretched in the horizontal direction. On the other hand, in the equirectangular projection, as shown in FIG. 6, when the latitude ψ of the position of the object of interest in the current frame unit sphere CB is 0 degree, the distortion of the object of interest in the entire image G is the smallest. Therefore, the entire image generation unit 105 sets the latitude ψ of the position of the target object AT included in the current frame unit sphere CB to 0 degrees. Next, the entire image generation unit 105 generates an entire image G obtained by panoramic development of the current frame unit sphere CB in which the position of the object of interest AT is set to latitude ψ: 0 °. Thereby, the whole image generation unit 105 can obtain the whole image G in which the distortion of the object of interest in the current frame is small.
本実施の形態では、全体画像生成部105は、正距円筒図法を用いて、カレントフレームをパノラマ展開したが、これに限定するものではなく、例えば、その他の円筒図法、円錐図法、方位図法等を用いて、カレントフレームをパノラマ展開しても良い。 In the present embodiment, the whole image generation unit 105 panoramicly expands the current frame using equirectangular projection, but the present invention is not limited to this. For example, other cylindrical projection, conic projection, azimuth projection, etc. The current frame may be panorama developed using.
図2に戻り、注目物体領域強調部106は、全体画像生成部105により生成された全体画像内における部分画像に対応する領域(以下、注目物体領域と言う)の表示態様を強調表示にする(ステップS206)。図7および図8は、第1の実施の形態にかかる動画表示装置における注目物体領域の表示態様の一例を示す図である。本実施の形態では、注目物体領域強調部106は、図7に示すように、画像表示装置40に表示する全体画像Gに含まれる注目物体ATを囲む矩形状の枠700を、当該全体画像Gに含めることによって、注目物体領域の表示態様を強調表示にする。本実施の形態では、注目物体領域強調部106は、全体画像に含まれる注目物体領域の表示態様を強調表示にしているが、注目物体領域の表示態様を、全体画像の注目物体領域以外の領域と異なる表示態様にするものであれば、これに限定するものではない。例えば、注目物体領域強調部106は、図8に示すように、全体画像Gにおける部分画像gに対応する注目物体領域rとその他の領域の境界線800を、全体画像Gに含めても良い。
Returning to FIG. 2, the target object
画像表示部107は、部分画像生成部104により生成された部分画像および全体画像生成部105により生成された全体画像のうち、少なくとも全体画像を、画像表示装置40に表示する(ステップS207)。これにより、魚眼カメラや全方位カメラ等によって広角で撮像して得られた動画像に含まれる注目物体を切り出して表示する場合に、全体画像における、部分画像に対応する領域を把握し易くすることができる。
The
本実施の形態では、画像表示部107は、部分画像および全体画像を、画像表示装置40の表示画面の異なる領域に表示する。図9および図10は、第1の実施の形態にかかる動画表示装置における部分画像および全体画像の表示例を示す図である。例えば、画像表示部107は、図9に示すように、部分画像gおよび全体画像Gを、画像表示装置40の表示画面において並べて表示しても良い。または、画像表示部107は、図10に示すように、画像表示装置40の表示画面に対して、部分画像gの一部に全体画像Gを重畳して表示しても良い。本実施の形態では、注目物体領域強調部106および画像表示部107が、全体画像における注目物体領域の表示態様を他の領域と異ならせる表示制御部の一例として機能する。
In the present embodiment, the
その後、フレーム読込部101は、カレントフレームが、表示対象の動画像を構成する最後のフレームか否かを判断する(ステップS208)。カレントフレームが最後のフレームでないと判断した場合(ステップS208:No)、フレーム読込部101は、ステップS201に戻り、カレントフレームの次のフレームを読み込む。一方、カレントフレームが最後のフレームであると判断した場合(ステップS208:Yes)、フレーム読込部101は、フレームの読み込みを終了する。
Thereafter, the
このように、第1の実施の形態にかかる画像表示装置によれば、全体画像における部分画像に対応する領域の表示態様を、他の領域と異ならせることができるので、魚眼カメラや全方位カメラ等によって広角で撮像して得られた動画像に含まれる注目物体を切り出して表示する場合に、全体画像における、部分画像に対応する領域を把握し易くすることができる。 As described above, according to the image display device according to the first embodiment, the display mode of the area corresponding to the partial image in the entire image can be different from that of other areas. When an object of interest included in a moving image obtained by imaging with a camera or the like at a wide angle is cut out and displayed, an area corresponding to a partial image in the entire image can be easily grasped.
(第2の実施の形態)
本実施の形態では、全体画像を表示済みのフレームからの注目物体の位置の検出履歴に基づいて、全体画像において注目物体が動く範囲(以下、動作予測範囲と言う)を予測し、当該動作予測範囲の歪みを所定値以下とさせた全体画像を生成する例である。以下の説明では、第1の実施の形態と同様の箇所については説明を省略する。
(Second Embodiment)
In the present embodiment, based on the detection history of the position of the object of interest from the frame in which the entire image has been displayed, a range in which the object of interest moves in the entire image (hereinafter referred to as an operation prediction range) is predicted, and the operation prediction is performed. This is an example of generating an entire image with a range distortion set to a predetermined value or less. In the following description, description of the same parts as in the first embodiment will be omitted.
図11は、第2の実施の形態にかかる動画閲覧装置の機能構成の一例を示すブロック図である。図11に示すように、本実施の形態にかかる動画閲覧装置1100は、動作範囲予測部1101が追加され、かつ第1の実施の形態とは動作が異なる全体画像生成部1102を有している。
FIG. 11 is a block diagram illustrating an example of a functional configuration of the moving image browsing apparatus according to the second embodiment. As illustrated in FIG. 11, the moving image browsing apparatus 1100 according to the present embodiment includes an entire image generation unit 1102 to which an operation
次に、図12を用いて、本実施の形態にかかる動画表示装置による動画像の表示処理について説明する。図12は、第2の実施の形態にかかる動画表示装置における動画像の表示処理の流れの一例を示すフローチャートである。 Next, a moving image display process performed by the moving image display apparatus according to the present embodiment will be described with reference to FIG. FIG. 12 is a flowchart illustrating an exemplary flow of a moving image display process in the moving image display apparatus according to the second embodiment.
本実施の形態では、動作範囲予測部1101は、注目物体追跡部103による注目物体の位置の検出履歴(すなわち、全体画像を表示済みのフレームからの注目物体の位置の検出履歴)に基づいて、動画像内において注目物体が動く範囲である動作予測範囲(第1範囲の一例)を予測する(ステップ1201)。図13は、第2の実施の形態にかかる動画表示装置における動作予測範囲の予測処理の一例を説明するための図である。具体的には、動作範囲予測部1101は、注目物体が直線運動すると仮定する。次いで、動作範囲予測部1101は、図13に示すように、カレントフレームFの1フレーム前のフレームF−1において検出された注目物体の位置P−1を起点として、カレントフレームFにおいて検出された注目物体の位置Pを通る半直線である動作予測直線lを、動作予測範囲とする。
In the present embodiment, the motion
または、動作範囲予測部1101は、カレントフレームより前のフレーム(過去のフレーム)における注目物体の位置の分布に従ったパラメトリックな注目物体の位置の軌道(以下、軌道モデルと言う)を求める。さらに、動作範囲予測部1101は、軌道モデルのパラメータを、最小二乗法を用いて同定しても良い。例えば、動作範囲予測部1101は、時刻tにおける注目物体の位置を(x(t),y(t))として、下記の式(1)に示すM次多項式で表される軌道モデルを求める。
または、動作範囲予測部1101は、状態空間モデルを用いて、最後に読み込んだフレームにおける注目物体の位置から、動作予測範囲を求めても良い。例えば、動作範囲予測部1101は、注目物体の追跡に状態空間モデルを用いている場合、その時点でのパラメータ(注目物体の位置)を用いて、状態空間モデルによって動作予測範囲を求める。例えば、動作範囲予測部1101は、下記の式(2)で表すM次多項式の状態空間モデルを用いて、漸化式を繰り返し解いて動作予測範囲を求める。
上述した動作予測範囲の予測方法は、いずれも動作予測範囲として直線または曲線を求める方法であるが、求めた直線または曲線に変動幅を持たせた領域を動作予測範囲としても良い。具体的には、動作範囲予測部1101は、動作予測範囲を、注目物体の位置(x(t))に対する確率分布p(x)として求める。例えば、動作範囲予測部1101は、上記の式(2)の状態空間モデルに乱数項εを入れた下記の式(3)を用いて、注目物体の位置の確率分布p(x)を求める。
また、動作範囲予測部1101は、動作予測範囲を軌跡f(x)=0として求めた場合も、下記の式(4)によれば、変動幅を持たせた動作予測範囲を、確率密度関数で表すことができる。式(4)において、Lは、軌跡f(x)の長さである。
または、動作範囲予測部1101は、下記の式(5)に示すように、軌跡f(x)に適当な幅σを持たせた確率密度関数によって、動作予測範囲を表すことも可能である。
図12に戻り、全体画像生成部1102は、カレントフレーム内の動作予測範囲の歪みを所定値以下とさせた全体画像を生成する(ステップS1202)。例えば、全体画像生成部1102は、カレントフレームのパノラマ展開に正距円筒図法を用い、かつ、図13に示すように、動作範囲予測部1101により求めた動作予測範囲が直線的である場合、正距円筒画像における動作予測範囲が緯度ψ:0度に位置するように、カレントフレームをパノラマ展開する。
Returning to FIG. 12, the entire image generation unit 1102 generates an entire image in which the distortion of the motion prediction range in the current frame is set to a predetermined value or less (step S1202). For example, if the equirectangular projection is used for panorama development of the current frame and the motion prediction range obtained by the motion
ところで、正距円筒図法においては、カレントフレーム内の画像が、緯度ψにおいて、水平方向に1/cоsψ倍される。そこで、全体画像生成部1102は、動作予測範囲に1/cоsψを足し合わせた値(定積分値)を評価関数として、当該評価関数が最小化されるように、カレントフレームをパノラマ展開しても良い。例えば、全体画像生成部1102は、動作予測範囲が確率密度関数p(x)で表される場合、下記の式(6)に示す評価関数Jが最小化されるように、カレントフレームをパノラマ展開する。
つまり、重み関数w(x)は、カレントフレーム内において、水平方向に1/cоsψ倍される位置が歪みの無い位置から離れている距離を表している。ここで、カレントフレーム内の注目物体の位置xからψ(およびθ)への変換は、回転Rと並進Tを用いた下記の式(8)により表される。
よって、全体画像生成部1102は、式(6),(7)を最小化する回転Rおよび並進Tを求める最適化問題を解くことになる。この最適化問題は、非線形の最適化問題となるため、ニュートン法や共役勾配法などの非線形計画法により求解される。 Therefore, the entire image generation unit 1102 solves the optimization problem for obtaining the rotation R and translation T that minimize Equations (6) and (7). Since this optimization problem is a nonlinear optimization problem, it is solved by a nonlinear programming method such as Newton's method or conjugate gradient method.
上述したように、重み関数w(x)は、全体画像における注目物体の位置xにおける歪みの度合いを表すものであれば良い。よって、正距円筒図法以外の他の図法を用いてカレントフレームをパノラマ展開する場合でも、他の図法による全体画像における注目物体の歪みの度合いを利用して、カレントフレームをパノラマ展開する。 As described above, the weighting function w (x) only needs to represent the degree of distortion at the position x of the target object in the entire image. Therefore, even when the current frame is panorama developed using a method other than the equirectangular projection, the current frame is panorama developed using the degree of distortion of the object of interest in the entire image by another method.
注目物体の位置xの座標系は、任意の座標系を用いることができる。例えば、カレントフレーム上での座標系でも良いし、部分画像上の座標系でも良いし、全体画像上での座標系でも良い。 An arbitrary coordinate system can be used as the coordinate system of the position x of the object of interest. For example, a coordinate system on the current frame, a coordinate system on a partial image, or a coordinate system on the entire image may be used.
このように、第2の実施形態にかかる画像表示装置によれば、広角で撮像して得られた動画像に含まれる注目物体を切り出して表示する場合に、今後の注目物体の動きを考慮して、全体画像における動作予測範囲が強調表示されるので、全体画像における、部分画像に対応する領域の位置をより把握し易くすることができる。 As described above, according to the image display apparatus according to the second embodiment, when a target object included in a moving image obtained by imaging at a wide angle is cut out and displayed, the future movement of the target object is considered. Thus, since the motion prediction range in the entire image is highlighted, it is possible to make it easier to grasp the position of the region corresponding to the partial image in the entire image.
(第3の実施の形態)
本実施の形態は、カレントフレームの水平方向を検出し、カレントフレームの水平方向を保ったまま、カレントフレームをパノラマ展開する例である。以下の説明では、第1,2の実施の形態と異なる箇所について説明する。
(Third embodiment)
The present embodiment is an example in which the horizontal direction of the current frame is detected, and the current frame is panorama developed while maintaining the horizontal direction of the current frame. In the following description, portions different from the first and second embodiments will be described.
図14は、第3の実施の形態にかかる動作閲覧装置の構成の一例を示すブロック図である。図14に示すように、本実施の形態にかかる動画閲覧装置1400は、第2の実施の形態とは動作が異なる全体画像生成部1401を有している。また、本実施の形態では、記憶装置20に記憶された動画像を撮像した撮像機器は、当該撮像機器が搭載する加速度センサによって、動画像を撮像した際の加速度を検出し、加速度の検出結果を動画像のメタデータとして付加する。そして、全体画像生成部1401は、表示対象の動画像に付加された加速度の検出結果に基づいて、動画像を構成するフレームにおける重力方向および当該重力方向に直交する水平方向を検出する。
FIG. 14 is a block diagram illustrating an example of the configuration of the motion browsing apparatus according to the third embodiment. As illustrated in FIG. 14, the moving
次に、図15を用いて、動画表示装置による動画像の表示処理について説明する。図15は、第3の実施の形態にかかる動画表示装置による動画像の表示処理の流れの一例を示すフローチャートである。 Next, moving image display processing by the moving image display apparatus will be described with reference to FIG. FIG. 15 is a flowchart illustrating an exemplary flow of a moving image display process performed by the moving image display apparatus according to the third embodiment.
本実施の形態では、全体画像生成部1401は、カレントフレームの水平方向を保ったまま、当該動作予測範囲の歪みが所定値以下となるように、カレントフレームをパノラマ展開した全体画像を生成する(ステップS1501)。経験的に、カレントフレームに含まれる注目物体は水平方向に移動する場合が多く、水平方向へのカレントフレームの傾きが無い方が注目物体の視認性が良くなる。そこで、全体画像生成部1401は、全体画像の水平方向と、実際の撮像により得られた画像(すなわち、カレントフレーム)の水平方向とが一致するという制約の下に、カレントフレームをパノラマ展開する。なお、全体画像生成部1401は、第1,2の実施の形態と同様にして、カレントフレームをパノラマ展開するものとする。
In the present embodiment, the entire
このように、第3の実施の形態にかかる画像表示装置によれば、カレントフレームの水平方向が保たれたまま、当該カレントフレームがパノラマ展開されるので、全体画像を表示する場合に、全体画像における注目物体領域の傾きが軽減され当該注目物体領域をより把握し易くすることができる。 As described above, according to the image display device according to the third embodiment, the current frame is panorama developed while maintaining the horizontal direction of the current frame. Therefore, when displaying the entire image, the entire image is displayed. The inclination of the target object area in the area is reduced, and the target object area can be more easily grasped.
(第4の実施の形態)
本実施の形態は、動画像を構成する全てのフレーム内における注目物体の位置を予め検出しておき、全てのフレーム内における注目物体の位置の集合である注目物体位置群(位置群の一例)に基づいて、注目物体の動作範囲を決定し、カレントフレームにおける動作範囲の歪みを所定以下とさせた全体画像を生成する例である。以下の説明では、第1,2,3の実施の形態と同様の箇所については説明を省略する。
(Fourth embodiment)
In this embodiment, positions of target objects in all frames constituting a moving image are detected in advance, and a target object position group (an example of a position group) that is a set of positions of target objects in all frames This is an example in which the motion range of the object of interest is determined based on the above and an entire image is generated in which the motion range distortion in the current frame is set to a predetermined value or less. In the following description, description of the same parts as those in the first, second, and third embodiments is omitted.
図16は、第4の実施の形態にかかる動画閲覧装置の構成の一例を示すブロック図である。図16に示すように、第4の実施の形態にかかる動画表示装置の動画閲覧装置1600は、上述の実施の形態とは動作が異なる、フレーム読込部1601、注目物体決定部1602、注目物体追跡部1603、部分画像生成部1604、全体画像生成部1605、注目物体領域強調部1606、および画像表示部1607を有している。
FIG. 16 is a block diagram illustrating an example of a configuration of a moving image browsing apparatus according to the fourth embodiment. As shown in FIG. 16, the moving
次に、図17および図18を用いて、動画表示装置による動画像の表示処理について説明する。図17は、第4の実施の形態にかかる動画表示装置による動画像の読込処理の流れの一例を示すフローチャートである。図18は、第4の実施の形態にかかる動画表示装置による動画像の表示処理の流れの一例を示すフローチャートである。 Next, moving image display processing by the moving image display apparatus will be described with reference to FIGS. 17 and 18. FIG. 17 is a flowchart illustrating an example of a moving image reading process performed by the moving image display apparatus according to the fourth embodiment. FIG. 18 is a flowchart illustrating an exemplary flow of a moving image display process performed by the moving image display apparatus according to the fourth embodiment.
本実施の形態では、フレーム読込部1601は、入出力装置30からの操作情報の入力に関わらず、記憶装置20から、表示対象の動画像を、1フレームずつ読み込む(ステップS1701)。本実施の形態でも、フレーム読込部1601は、表示対象の動画像の最初のフレームまたは入出力装置30を介してユーザにより指示されたフレームから順に読み込む。
In the present embodiment, the
注目物体決定部1602は、読み込んだフレーム内において、入出力装置30を介してユーザにより指定された画像を注目物体に決定する(ステップS1702)。注目物体追跡部1603は、フレーム読込部1601によってフレームが読み込まれる度に(ステップS1703)、当該フレーム内における注目物体の位置を検出することによって、当該注目物体を追跡する(ステップS1704)。注目物体追跡部1603は、検出した注目物体の位置を、当該位置を検出したフレームと対応付けて記憶装置20に保存する。
The target
そして、フレーム読込部1601は、注目物体追跡部1603によって注目物体の位置が検出されると、最後に読み込んだフレームが、表示対象の動画像を構成する最後のフレームか否かを判断する(ステップS1705)。最後に読み込んだフレームが、表示対象の動画像を構成する最後のフレームではないと判断した場合(ステップS1705:No)、フレーム読込部1601は、最後に読み込んだフレームの次のフレームを読み込む(ステップS1703)。一方、最後に読み込んだフレームが、表示対象の動画像を構成する最後のフレームであると判断した場合(ステップS1705:Yes)、フレーム読込部1601は、フレームの読み込み処理を終了する。すなわち、注目物体追跡部1603は、動画像を構成する全てのフレーム内における注目物体の位置を予め検出する。
Then, when the position of the target object is detected by the target
その後、入出力装置30を介して動画像の表示が指示されると、フレーム読込部1601は、記憶装置20から、表示が指示された動画像(表示対象の動画像)を構成するフレームを読み込む(ステップS1801)。次いで、部分画像生成部1604は、フレーム読込部1601により読み込んだカレントフレームから、当該カレントフレームの一部でありかつ当該カレントフレームと対応付けて記憶装置20に記憶された位置に存在する注目物体を含む画像を切り出す。そして、部分画像生成部1604は、切り出した画像に基づく部分画像を生成する(ステップS1802)。部分画像の生成方法は、第1の実施の形態と同様である。
Thereafter, when display of a moving image is instructed via the input /
全体画像生成部1605は、表示対象の動画像を構成する複数のフレームと対応付けて記憶装置20に記憶された注目物体の位置の集合である注目物体位置群に基づいて、当該カレントフレームにおける注目物体の動作範囲を決定し、当該動作範囲の歪みが所定値以下となるように、カレントフレームをパノラマ展開した全体画像を生成する(ステップS1803)。これにより、部分画像が移動する範囲を考慮して、カレントフレームの歪みを軽減した全体画像が生成されるので、全体画像における注目物体領域をより把握し易くすることができる。 The overall image generation unit 1605 is based on a target object position group that is a set of target object positions stored in the storage device 20 in association with a plurality of frames constituting a moving image to be displayed. The motion range of the object is determined, and an entire image in which the current frame is panoramic developed so that the distortion of the motion range is a predetermined value or less is generated (step S1803). As a result, the entire image in which the distortion of the current frame is reduced is generated in consideration of the range in which the partial image moves, so that the target object region in the entire image can be more easily grasped.
本実施の形態では、全体画像生成部1605は、表示対象の動画像を構成する複数のフレームそれぞれにおける注目物体の位置の確率分布pに、正規分布や一様分布やそれらの混合分布等のパラメトリックなモデルを仮定し、そのパラメータを、注目物体の動作範囲と同定する。若しくは、全体画像生成部1605は、表示対象の動画像を構成する複数のフレームそれぞれにおける注目物体の位置群をそのまま使った経験分布を注目物体の動作範囲としても良い。 In the present embodiment, the entire image generation unit 1605 includes a parametric such as a normal distribution, a uniform distribution, or a mixture distribution thereof in the probability distribution p of the position of the object of interest in each of a plurality of frames constituting the moving image to be displayed. A model is assumed, and its parameter is identified as the motion range of the object of interest. Alternatively, the entire image generation unit 1605 may use an experience distribution using the position group of the target object as it is in each of a plurality of frames constituting the moving image to be displayed as the target object motion range.
注目物体領域強調部1606は、第1の実施の形態と同様に、全体画像生成部1605により生成された全体画像に含まれる注目物体の表示態様を強調表示にする(ステップS1804)。画像表示部1607は、第1の実施の形態と同様に、部分画像生成部1604により生成された部分画像および全体画像生成部1605により生成された全体画像のうち、少なくとも全体画像を、画像表示装置40に表示する(ステップS1805)。その後、フレーム読込部1601は、カレントフレームが、表示対象の動画像を構成する最後のフレームか否かを判断する(ステップS1806)。
The attention object area emphasizing unit 1606 highlights the display mode of the attention object included in the entire image generated by the entire image generation unit 1605 as in the first embodiment (step S1804). As in the first embodiment, the
カレントフレームが最後のフレームでないと判断した場合(ステップS1806:No)、フレーム読込部1601は、ステップS1801に戻り、カレントフレームの次のフレームを読み込む。一方、カレントフレームが最後のフレームであると判断した場合(ステップS1806:Yes)、フレーム読込部1601は、フレームの読み込みを終了する。
If it is determined that the current frame is not the last frame (step S1806: NO), the
このように、第4の実施の形態にかかる画像表示装置によれば、部分画像が移動する範囲を考慮して、カレントフレームの歪みを軽減した全体画像が生成されるので、全体画像における部分画像に対応する領域をより把握し易くすることができる。 As described above, according to the image display device according to the fourth embodiment, the entire image in which the distortion of the current frame is reduced is generated in consideration of the range in which the partial image moves. It is possible to make it easier to grasp the area corresponding to.
なお、本実施の形態の動画閲覧装置10,1100,1400,1600で実行されるプログラムは、ROM(Read Only Memory)等に予め組み込まれて提供される。本実施の形態の動画閲覧装置10,1100,1400,1600で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
Note that the program executed by the moving
さらに、本実施の形態の動画閲覧装置10,1100,1400,1600で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施の形態の動画閲覧装置10,1100,1400,1600で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
Furthermore, the program executed by the moving
本実施の形態の動画閲覧装置10,1100,1400,1600で実行されるプログラムは、上述した各部(フレーム読込部101,1601、注目物体決定部102,1602、注目物体追跡部103、1603、部分画像生成部104,1604、全体画像生成部105,1102,1401,1605、注目物体領域強調部106,1606、画像表示部107,1607、動作範囲予測部1101)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(Central Processing Unit)が上記ROMからプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、フレーム読込部101,1601、注目物体決定部102,1602、注目物体追跡部103、1603、部分画像生成部104,1604、全体画像生成部105,1102,1401,1605、注目物体領域強調部106,1606、画像表示部107,1607、動作範囲予測部1101が主記憶装置上に生成されるようになっている。
The programs executed by the moving
10,1100,1400,1600 動画閲覧装置
20 記憶装置
30 入出力装置
40 画像表示装置
101,1601 フレーム読込部
102,1602 注目物体決定部
103,1603 注目物体追跡部
104,1604 部分画像生成部
105,1102,1401,1605 全体画像生成部
106,1606 注目物体領域強調部
107,1607 画像表示部
1101 動作範囲予測部
10, 1100, 1400, 1600 Movie browsing device 20
Claims (7)
前記フレーム内の前記所定画像の歪みを所定以下とさせた第2画像を生成する生成部と、
前記第2画像における前記第1画像に対応する領域の表示態様を他の領域と異ならせて表示させる表示制御部と、
前記フレーム内における前記所定画像の位置を検出する検出部と、
前記第2画像を表示済みの前記フレームからの前記所定画像の位置の検出履歴に基づいて、前記動画像において前記所定画像が動く第1範囲を予測する予測部と、
を備え、
前記生成部は、前記第1範囲の歪みを前記所定以下とさせた前記第2画像を生成する、動画表示装置。 A cutout unit that cuts out a first image that is a part of the moving image and includes a predetermined image from the frame;
A generating unit that generates a second image in which distortion of the predetermined image in the frame is set to be equal to or lower than a predetermined value;
A display control unit that displays a display mode of an area corresponding to the first image in the second image different from other areas;
A detection unit for detecting a position of the predetermined image in the frame;
A prediction unit that predicts a first range in which the predetermined image moves in the moving image based on a detection history of the position of the predetermined image from the frame in which the second image has been displayed;
With
The said production | generation part is a moving image display apparatus which produces | generates the said 2nd image which made distortion of the said 1st range below the said predetermined value .
前記フレーム内の前記所定画像の歪みを所定以下とさせた第2画像を生成する生成部と、A generating unit that generates a second image in which distortion of the predetermined image in the frame is set to be equal to or lower than a predetermined value;
前記第2画像における前記第1画像に対応する領域の表示態様を他の領域と異ならせて表示させる表示制御部と、A display control unit that displays a display mode of an area corresponding to the first image in the second image different from other areas;
前記動画像を構成する全ての前記フレーム内における前記所定画像の位置を予め検出する検出部と、A detection unit that detects in advance the position of the predetermined image in all the frames constituting the moving image;
を備え、With
前記生成部は、全ての前記フレーム内における前記所定画像の位置の集合である位置群に基づいて、前記所定画像の動作範囲を決定し、前記動作範囲の歪みを前記所定以下とさせた前記第2画像を生成する、The generation unit determines an operation range of the predetermined image based on a position group that is a set of positions of the predetermined image in all the frames, and the distortion of the operation range is set to the predetermined value or less. Generate two images,
動画表示装置。Movie display device.
前記フレーム内の前記所定画像の歪みを所定以下とさせた第2画像を生成するステップと、
前記第2画像における前記第1画像に対応する領域の表示態様を他の領域と異ならせて表示させるステップと、
前記フレーム内における前記所定画像の位置を検出するステップと、
前記第2画像を表示済みの前記フレームからの前記所定画像の位置の検出履歴に基づいて、前記動画像において前記所定画像が動く第1範囲を予測するステップと、
を含み、
前記第2画像を生成するステップは、前記第1範囲の歪みを前記所定以下とさせた前記第2画像を生成する、
動画表示方法。 A frame constituting a moving image, comprising the steps of: to cut out the first image including a part at and and a predetermined image in the frame,
Generating a second image in which the distortion of the predetermined image in the frame is less than or equal to a predetermined value;
A step of Ru is displayed the display mode of the area corresponding to the first image in the second image by varying the other regions,
Detecting the position of the predetermined image in the frame;
Predicting a first range in which the predetermined image moves in the moving image based on a detection history of the position of the predetermined image from the frame on which the second image has been displayed;
Including
The step of generating the second image generates the second image in which the distortion of the first range is equal to or less than the predetermined value.
Video display method.
前記フレーム内の前記所定画像の歪みを所定以下とさせた第2画像を生成するステップと、Generating a second image in which the distortion of the predetermined image in the frame is less than or equal to a predetermined value;
前記第2画像における前記第1画像に対応する領域の表示態様を他の領域と異ならせて表示させるステップと、Displaying a display mode of an area corresponding to the first image in the second image different from other areas;
前記動画像を構成する全ての前記フレーム内における前記所定画像の位置を予め検出するステップと、Detecting in advance the position of the predetermined image in all the frames constituting the moving image;
を含み、Including
前記第2画像を生成するステップは、全ての前記フレーム内における前記所定画像の位置の集合である位置群に基づいて、前記所定画像の動作範囲を決定し、前記動作範囲の歪みを前記所定以下とさせた前記第2画像を生成する、The step of generating the second image determines an operation range of the predetermined image based on a position group that is a set of positions of the predetermined image in all the frames, and distortion of the operation range is less than or equal to the predetermined value. Generating the second image,
動画表示方法。Video display method.
動画像を構成するフレームから、当該フレーム内の一部でありかつ所定画像を含む第1画像を切り出す切出部と、
前記フレーム内の前記所定画像の歪みを所定以下とさせた第2画像を生成する生成部と、
前記第2画像における前記第1画像に対応する領域の表示態様を他の領域と異ならせて表示させる表示制御部と、
前記フレーム内における前記所定画像の位置を検出する検出部と、
前記第2画像を表示済みの前記フレームからの前記所定画像の位置の検出履歴に基づいて、前記動画像において前記所定画像が動く第1範囲を予測する予測部と、
として機能させ、
前記生成部は、前記第1範囲の歪みを前記所定以下とさせた前記第2画像を生成する、プログラム。 Computer
A cutout unit that cuts out a first image that is a part of the moving image and includes a predetermined image from the frame;
A generating unit that generates a second image in which distortion of the predetermined image in the frame is set to be equal to or lower than a predetermined value;
A display control unit that displays a display mode of an area corresponding to the first image in the second image different from other areas;
A detection unit for detecting a position of the predetermined image in the frame;
A prediction unit that predicts a first range in which the predetermined image moves in the moving image based on a detection history of the position of the predetermined image from the frame in which the second image has been displayed;
Function as
The said production | generation part is a program which produces | generates the said 2nd image which made distortion of the said 1st range the said predetermined or less .
動画像を構成するフレームから、当該フレーム内の一部でありかつ所定画像を含む第1画像を切り出す切出部と、A cutout unit that cuts out a first image that is a part of the moving image and includes a predetermined image from the frame;
前記フレーム内の前記所定画像の歪みを所定以下とさせた第2画像を生成する生成部と、A generating unit that generates a second image in which distortion of the predetermined image in the frame is set to be equal to or lower than a predetermined value;
前記第2画像における前記第1画像に対応する領域の表示態様を他の領域と異ならせて表示させる表示制御部と、A display control unit that displays a display mode of an area corresponding to the first image in the second image different from other areas;
前記動画像を構成する全ての前記フレーム内における前記所定画像の位置を予め検出する検出部と、A detection unit that detects in advance the position of the predetermined image in all the frames constituting the moving image;
として機能させ、Function as
前記生成部は、全ての前記フレーム内における前記所定画像の位置の集合である位置群に基づいて、前記所定画像の動作範囲を決定し、前記動作範囲の歪みを前記所定以下とさせた前記第2画像を生成する、The generation unit determines an operation range of the predetermined image based on a position group that is a set of positions of the predetermined image in all the frames, and the distortion of the operation range is set to the predetermined value or less. Generate two images,
プログラム。program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015150137A JP6613686B2 (en) | 2015-07-29 | 2015-07-29 | Movie display device, movie display method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015150137A JP6613686B2 (en) | 2015-07-29 | 2015-07-29 | Movie display device, movie display method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017034362A JP2017034362A (en) | 2017-02-09 |
JP6613686B2 true JP6613686B2 (en) | 2019-12-04 |
Family
ID=57989413
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015150137A Active JP6613686B2 (en) | 2015-07-29 | 2015-07-29 | Movie display device, movie display method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6613686B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018149234A (en) * | 2017-03-15 | 2018-09-27 | 公立大学法人広島市立大学 | Fixation point estimation system, fixation point estimation method, and fixation point estimation program |
JP7472553B2 (en) * | 2020-03-09 | 2024-04-23 | 株式会社リコー | IMAGE PROCESSING SYSTEM, INFORMATION PROCESSING APPARATUS AND METHOD |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001256492A (en) * | 2000-03-14 | 2001-09-21 | Sanyo Electric Co Ltd | Device and method for composing image and computer readable recording medium for recording its program |
JP5569329B2 (en) * | 2010-10-15 | 2014-08-13 | 大日本印刷株式会社 | Conference system, monitoring system, image processing apparatus, image processing method, image processing program, etc. |
JP5678324B2 (en) * | 2011-02-10 | 2015-03-04 | パナソニックIpマネジメント株式会社 | Display device, computer program, and display method |
JP5887067B2 (en) * | 2011-05-20 | 2016-03-16 | 東芝テリー株式会社 | Omnidirectional image processing system |
JP5733088B2 (en) * | 2011-08-01 | 2015-06-10 | 大日本印刷株式会社 | Movie presentation device |
JP2013172446A (en) * | 2012-02-23 | 2013-09-02 | Sony Corp | Information processor, terminal, imaging apparatus, information processing method, and information provision method in imaging apparatus |
JP6186775B2 (en) * | 2012-05-31 | 2017-08-30 | 株式会社リコー | Communication terminal, display method, and program |
-
2015
- 2015-07-29 JP JP2015150137A patent/JP6613686B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017034362A (en) | 2017-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6621063B2 (en) | Camera selection method and video distribution system | |
US11887318B2 (en) | Object tracking | |
US8472667B2 (en) | Editing apparatus and method | |
JP5906028B2 (en) | Image processing apparatus and image processing method | |
US9875408B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
US9773192B2 (en) | Fast template-based tracking | |
KR102141290B1 (en) | Image processing apparatus, image processing method, image processing program and storage medium | |
JP2008109552A (en) | Imaging device with chasing function | |
US11328473B2 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium | |
JP4575829B2 (en) | Display screen position analysis device and display screen position analysis program | |
US20160084932A1 (en) | Image processing apparatus, image processing method, image processing system, and storage medium | |
JP2016212784A (en) | Image processing apparatus and image processing method | |
KR20160094655A (en) | The System and Method for Panoramic Video Surveillance with Multiple High-Resolution Video Cameras | |
US20130170770A1 (en) | Method of system for image stabilization through image processing, and zoom camera including image stabilization function | |
JP6613686B2 (en) | Movie display device, movie display method, and program | |
JP5911227B2 (en) | Determination apparatus, determination method, and program | |
US20140009608A1 (en) | System and Method of Video Capture and Search Optimization | |
JP2006245677A (en) | Image processor, image processing method, and image processing program | |
JP5380336B2 (en) | Imaging apparatus, panoramic image synthesis method and program thereof | |
JP2017184136A5 (en) | ||
JP2017028688A (en) | Image managing device, image managing method and program | |
JP6852878B2 (en) | Image processing equipment, image processing program and image processing method | |
JP6632134B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP2014179740A (en) | Video retrieval device, video retrieval system, and video retrieval method | |
KR101698864B1 (en) | Media Being Recorded with the Program Executing Method for Detecting Image Using Metadata |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180709 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190408 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190416 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190607 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191008 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191021 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6613686 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |