[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6613686B2 - Movie display device, movie display method, and program - Google Patents

Movie display device, movie display method, and program Download PDF

Info

Publication number
JP6613686B2
JP6613686B2 JP2015150137A JP2015150137A JP6613686B2 JP 6613686 B2 JP6613686 B2 JP 6613686B2 JP 2015150137 A JP2015150137 A JP 2015150137A JP 2015150137 A JP2015150137 A JP 2015150137A JP 6613686 B2 JP6613686 B2 JP 6613686B2
Authority
JP
Japan
Prior art keywords
image
frame
predetermined
unit
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015150137A
Other languages
Japanese (ja)
Other versions
JP2017034362A (en
Inventor
崇之 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015150137A priority Critical patent/JP6613686B2/en
Publication of JP2017034362A publication Critical patent/JP2017034362A/en
Application granted granted Critical
Publication of JP6613686B2 publication Critical patent/JP6613686B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、動画表示装置、動画表示方法、およびプログラムに関する。   The present invention relates to a moving image display device, a moving image display method, and a program.

監視カメラによる監視やスポーツ中継等を目的として、広角で撮像して得られる動画像から、所定画像を自動的に追跡し、当該所定画像を拡大表示する技術が考案されている。   For the purpose of monitoring by a surveillance camera, sports broadcasting, and the like, a technique has been devised that automatically tracks a predetermined image from a moving image obtained by imaging at a wide angle and displays the predetermined image in an enlarged manner.

例えば、特許文献1には、動画像内で動いている画像(以下、動き画像と言う)をユーザにより指定可能に表示し、ユーザにより指定された動き画像を、動画像に合成して表示する映像表示装置が開示されている。また、特許文献2には、動画像の各フレームからオブジェクトの位置を検出し、当該オブジェクトの検出結果に基づいて、動画像の各フレームにおける注目領域を決定する技術が開示されている。   For example, in Patent Document 1, an image moving in a moving image (hereinafter referred to as a moving image) is displayed so that it can be specified by the user, and the moving image specified by the user is combined with the moving image and displayed. A video display device is disclosed. Patent Document 2 discloses a technique for detecting the position of an object from each frame of a moving image and determining a region of interest in each frame of the moving image based on the detection result of the object.

ところで、広角での撮像に魚眼カメラや全方位カメラを用いた場合、一度の撮像によって極めて広い視野の画像を得ることができるので、利便性が高いが、魚眼カメラや全方位カメラの撮像により得られた画像には歪みが含まれるため、当該画像に含まれる所定画像を部分的に切り出して歪みを補正した上で、当該所定画像を追跡する必要がある。そこで、特許文献3,4,5には、魚眼カメラや全方位カメラの撮像により得られた画像に適した、所定画像の追跡方法が考案されている。   By the way, when a fish-eye camera or an omnidirectional camera is used for wide-angle imaging, an image with a very wide field of view can be obtained by a single imaging. Since the image obtained by the above includes distortion, it is necessary to track the predetermined image after correcting the distortion by partially cutting out the predetermined image included in the image. Therefore, Patent Documents 3, 4 and 5 devise a method for tracking a predetermined image suitable for an image obtained by imaging with a fisheye camera or an omnidirectional camera.

しかしながら、魚眼カメラまたは全方位カメラの撮像により得られた動画像から所定画像を切り出して表示した場合、動画像のいずれの部分を切り出した所定画像が表示されているのかが分かり辛い。そこで、所定画像とともに動画像を表示することによって当該動画像のいずれの部分を切り出した所定画像が表示されているかを分かり易くする方法があるが、180度以上の画角で撮像して得られた動画像を平面に対して歪み無く表示することは難しく、動画像内における所定画像に対応する領域の視認性が悪くなる。   However, when a predetermined image is cut out and displayed from a moving image obtained by imaging with a fisheye camera or an omnidirectional camera, it is difficult to determine which portion of the moving image is displayed. Therefore, there is a method of displaying a moving image together with a predetermined image so that it is easy to understand which portion of the moving image is cut out, but it is obtained by capturing an image with an angle of view of 180 degrees or more. It is difficult to display a moving image without distortion on a plane, and visibility of a region corresponding to a predetermined image in the moving image is deteriorated.

特許文献3には、所定画像の移動経路に沿って、動画像からの所定画像の切り出し位置をパンニングさせたり、動画像の倍率を徐々に変えるズーミングを行ったりすることで、動画像内における所定画像に対応する領域の位置を把握し易く方法が記載されている。しかし、当該方法では、動画像内から直接的に所定画像に対応する領域を認識することができず、動画像の表示中に、所定画像が移動する場合、動画像内における所定画像に対応する領域が分からなくなる。   In Patent Document 3, a predetermined image in a moving image is panned by panning a cutout position of the predetermined image from the moving image or zooming that gradually changes the magnification of the moving image along the moving path of the predetermined image. A method is described in which the position of the region corresponding to the image can be easily grasped. However, in this method, the region corresponding to the predetermined image cannot be directly recognized from the moving image, and when the predetermined image moves while the moving image is displayed, the region corresponds to the predetermined image in the moving image. The area is unknown.

本発明は、上記に鑑みてなされたものであって、動画像に含まれる所定画像を切り出して表示する場合に、動画像における所定画像に対応する領域を把握し易くする動画表示装置、動画表示方法、およびプログラムを提供することを目的とする。   The present invention has been made in view of the above, and when a predetermined image included in a moving image is cut out and displayed, a moving image display device and a moving image display that make it easy to grasp a region corresponding to the predetermined image in the moving image It is an object to provide a method and a program.

上述した課題を解決し、目的を達成するために、本発明は、動画像を構成するフレームから、当該フレーム内の一部でありかつ所定画像を含む第1画像を切り出す切出部と、フレーム内の所定画像の歪みを所定以下とさせた第2画像を生成する生成部と、第2画像における第1画像に対応する領域の表示態様を他の領域と異ならせて表示させる表示制御部と、前記フレーム内における前記所定画像の位置を検出する検出部と、前記第2画像を表示済みの前記フレームからの前記所定画像の位置の検出履歴に基づいて、前記動画像において前記所定画像が動く第1範囲を予測する予測部と、を備え、前記生成部は、前記第1範囲の歪みを前記所定以下とさせた前記第2画像を生成する、ことを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention provides a cutout unit that cuts out a first image that is a part of a frame and includes a predetermined image from a frame that forms a moving image, A generation unit that generates a second image in which the distortion of the predetermined image is less than or equal to a predetermined value, and a display control unit that displays the display mode of the region corresponding to the first image in the second image differently from other regions The predetermined image moves in the moving image based on a detection unit that detects the position of the predetermined image in the frame and a detection history of the position of the predetermined image from the frame on which the second image has been displayed. A predicting unit that predicts a first range, wherein the generating unit generates the second image in which the distortion of the first range is equal to or less than the predetermined value .

本発明によれば、動画像に含まれる所定画像を切り出して表示する場合に、動画像における、所定画像に対応する領域を把握し易くすることができる、という効果を奏する。   According to the present invention, when a predetermined image included in a moving image is cut out and displayed, it is possible to easily grasp a region corresponding to the predetermined image in the moving image.

図1Aは、第1の実施の形態にかかる動画表示装置のハードウェア構成の一例を示すブロック図である。FIG. 1A is a block diagram illustrating an example of a hardware configuration of the moving image display apparatus according to the first embodiment. 図1Bは、第1の実施の形態にかかる動画閲覧装置の機能構成の一例を示すブロック図である。FIG. 1B is a block diagram illustrating an example of a functional configuration of the moving image browsing apparatus according to the first embodiment. 図2は、第1の実施の形態にかかる動画表示装置における動画像の表示処理の流れの一例を示すフローチャートである。FIG. 2 is a flowchart illustrating an exemplary flow of a moving image display process in the moving image display apparatus according to the first embodiment. 図3は、第1の実施の形態にかかる動画表示装置におけるフレームの表示例を示す図である。FIG. 3 is a diagram illustrating a frame display example in the moving image display apparatus according to the first embodiment. 図4は、第1の実施の形態にかかる動画表示装置における部分画像の生成処理を説明するための図である。FIG. 4 is a diagram for explaining a partial image generation process in the moving image display apparatus according to the first embodiment. 図5は、第1の実施の形態にかかる動画表示装置におけるパノラマ展開を説明するための図である。FIG. 5 is a diagram for explaining panorama development in the moving image display apparatus according to the first embodiment. 図6は、第1の実施の形態にかかる動画表示装置におけるパノラマ展開を説明するための図である。FIG. 6 is a diagram for explaining panorama development in the moving image display apparatus according to the first embodiment. 図7は、第1の実施の形態にかかる動画表示装置における注目物体領域の表示態様の一例を示す図である。FIG. 7 is a diagram illustrating an example of a display mode of the target object region in the moving image display apparatus according to the first embodiment. 図8は、第1の実施の形態にかかる動画表示装置における注目物体領域の表示態様の一例を示す図である。FIG. 8 is a diagram illustrating an example of a display mode of the target object region in the moving image display apparatus according to the first embodiment. 図9は、第1の実施の形態にかかる動画表示装置における部分画像および全体画像の表示例を示す図である。FIG. 9 is a diagram illustrating a display example of a partial image and an entire image in the moving image display apparatus according to the first embodiment. 図10は、第1の実施の形態にかかる動画表示装置における部分画像および全体画像の表示例を示す図である。FIG. 10 is a diagram illustrating a display example of a partial image and an entire image in the moving image display apparatus according to the first embodiment. 図11は、第2の実施の形態にかかる動画閲覧装置の機能構成の一例を示すブロック図である。FIG. 11 is a block diagram illustrating an example of a functional configuration of the moving image browsing apparatus according to the second embodiment. 図12は、第2の実施の形態にかかる動画表示装置における動画像の表示処理の流れの一例を示すフローチャートである。FIG. 12 is a flowchart illustrating an exemplary flow of a moving image display process in the moving image display apparatus according to the second embodiment. 図13は、第2の実施の形態にかかる動画表示装置における動作予測範囲の予測処理の一例を説明するための図である。FIG. 13 is a diagram for explaining an example of a motion prediction range prediction process in the moving image display apparatus according to the second embodiment. 図14は、第3の実施の形態にかかる動作閲覧装置の構成の一例を示すブロック図である。FIG. 14 is a block diagram illustrating an example of the configuration of the motion browsing apparatus according to the third embodiment. 図15は、第3の実施の形態にかかる動画表示装置による動画像の表示処理の流れの一例を示すフローチャートである。FIG. 15 is a flowchart illustrating an exemplary flow of a moving image display process performed by the moving image display apparatus according to the third embodiment. 図16は、第4の実施の形態にかかる動画閲覧装置の構成の一例を示すブロック図である。FIG. 16 is a block diagram illustrating an example of a configuration of a moving image browsing apparatus according to the fourth embodiment. 図17は、第4の実施の形態にかかる動画表示装置による動画像の読込処理の流れの一例を示すフローチャートである。FIG. 17 is a flowchart illustrating an example of a moving image reading process performed by the moving image display apparatus according to the fourth embodiment. 図18は、第4の実施の形態にかかる動画表示装置による動画像の表示処理の流れの一例を示すフローチャートである。FIG. 18 is a flowchart illustrating an exemplary flow of a moving image display process performed by the moving image display apparatus according to the fourth embodiment.

以下に添付図面を参照して、動画表示装置、動画表示方法、およびプログラムの実施の形態を詳細に説明する。   Exemplary embodiments of a moving image display device, a moving image display method, and a program will be described below in detail with reference to the accompanying drawings.

(第1の実施の形態)
図1Aは、第1の実施の形態にかかる動画表示装置のハードウェア構成の一例を示すブロック図である。図1Aに示すように、本実施の形態にかかる動画表示装置は、動画閲覧装置10と、記憶装置20と、入出力装置30と、画像表示装置40(表示部の一例)と、を備えている。動画閲覧装置10は、画像表示装置40に対する各種画像の表示を制御する。記憶装置20は、画像表示装置40に対して表示する動画像等の各種情報を記憶する。入出力装置30は、動画表示装置のユーザが各種操作を入力するための操作部である。画像表示装置40は、動画閲覧装置10により制御され、動画像等を表示する表示部である。
(First embodiment)
FIG. 1A is a block diagram illustrating an example of a hardware configuration of the moving image display apparatus according to the first embodiment. As shown in FIG. 1A, the moving image display device according to the present embodiment includes a moving image browsing device 10, a storage device 20, an input / output device 30, and an image display device 40 (an example of a display unit). Yes. The moving image browsing device 10 controls display of various images on the image display device 40. The storage device 20 stores various information such as moving images to be displayed on the image display device 40. The input / output device 30 is an operation unit for a user of the moving image display device to input various operations. The image display device 40 is a display unit that is controlled by the moving image browsing device 10 and displays a moving image or the like.

図1Bは、第1の実施の形態にかかる動画閲覧装置の機能構成の一例を示すブロック図である。本実施の形態では、動画閲覧装置10は、図1Bに示すように、フレーム読込部101と、注目物体決定部102と、注目物体追跡部103と、部分画像生成部104と、全体画像生成部105と、注目物体領域強調部106と、画像表示部107と、を有している。   FIG. 1B is a block diagram illustrating an example of a functional configuration of the moving image browsing apparatus according to the first embodiment. In the present embodiment, as shown in FIG. 1B, the moving image browsing apparatus 10 includes a frame reading unit 101, an attention object determination unit 102, an attention object tracking unit 103, a partial image generation unit 104, and an entire image generation unit. 105, a target object region emphasis unit 106, and an image display unit 107.

次に、図2を用いて、本実施の形態にかかる動画表示装置における動画像の表示処理について説明する。図2は、第1の実施の形態にかかる動画表示装置における動画像の表示処理の流れの一例を示すフローチャートである。   Next, a moving image display process in the moving image display apparatus according to the present embodiment will be described with reference to FIG. FIG. 2 is a flowchart illustrating an exemplary flow of a moving image display process in the moving image display apparatus according to the first embodiment.

まず、フレーム読込部101は、入出力装置30から入力された操作情報に従って、記憶装置20から、表示対象の動画像を、1フレームずつ読み込む(ステップS201)。ここで、表示対象の動画像は、魚眼カメラや全方位カメラ等の180度を超える画角で撮像可能な撮像機器の撮像により得られ、かつ複数のフレームから構成される動画像の一例である。すなわち、表示対象の動画像は、広角での撮像により得られる動画像である。本実施の形態では、表示対象の動画像は、記憶装置20に記憶された動画像のうち、入出力装置30を介してユーザにより表示が指示された動画像である。   First, the frame reading unit 101 reads a moving image to be displayed frame by frame from the storage device 20 according to the operation information input from the input / output device 30 (step S201). Here, the moving image to be displayed is an example of a moving image that is obtained by imaging of an imaging device that can capture images with an angle of view exceeding 180 degrees, such as a fish-eye camera or an omnidirectional camera, and includes a plurality of frames. is there. That is, the moving image to be displayed is a moving image obtained by imaging at a wide angle. In the present embodiment, the moving image to be displayed is a moving image instructed to be displayed by the user via the input / output device 30 among the moving images stored in the storage device 20.

フレーム読込部101は、まず、表示対象の動画像の最初のフレームまたは入出力装置30を介してユーザにより指示されたフレームから順に読み込む。2回目以降のフレームの読み込みにおいては、フレーム読込部101は、前回読み込んだフレームの次のフレームを読み込む。本実施の形態では、フレーム読込部101は、記憶装置20から、動画像を構成するフレームを読み込んでいるが、これに限定するものではなく、例えば、魚眼カメラや全方位カメラ等の広角で撮像可能な撮像機器から、直接、フレームを取得しても良い。   First, the frame reading unit 101 sequentially reads from the first frame of the moving image to be displayed or the frame instructed by the user via the input / output device 30. In the second and subsequent frame reading, the frame reading unit 101 reads the next frame after the previously read frame. In the present embodiment, the frame reading unit 101 reads frames constituting a moving image from the storage device 20, but the present invention is not limited to this. For example, the frame reading unit 101 has a wide angle such as a fisheye camera or an omnidirectional camera. You may acquire a flame | frame directly from the imaging device which can image.

次に、注目物体決定部102は、読み込んだフレーム内において、入出力装置30を介してユーザにより指定された画像である注目物体(所定画像の一例)を決定する(ステップS202)。図3は、第1の実施の形態にかかる動画表示装置におけるフレームの表示例を示す図である。本実施の形態では、画像表示部107は、図3に示すように、フレーム読込部101により読み込まれたフレームを画像表示装置40に表示する。   Next, the target object determination unit 102 determines a target object (an example of a predetermined image) that is an image designated by the user via the input / output device 30 in the read frame (step S202). FIG. 3 is a diagram illustrating a frame display example in the moving image display apparatus according to the first embodiment. In the present embodiment, the image display unit 107 displays the frame read by the frame reading unit 101 on the image display device 40 as shown in FIG.

そして、注目物体決定部102は、図3に示すように、画像表示装置40に表示されたフレーム内において、入出力装置30を介してユーザにより指定された領域(例えば、矩形状の領域R)内の画像を、注目物体ATとして決定する。注目物体決定部102は、フレーム読込部101によってフレームが読み込まれる度に注目物体を決定する必要は無く、入出力装置30を介してユーザによってフレーム内の領域が指定されなかった場合には、ユーザにより最後に指定された領域内の画像を注目物体とし続ける。   Then, as shown in FIG. 3, the object-of-interest determining unit 102 is a region designated by the user via the input / output device 30 (for example, a rectangular region R) in the frame displayed on the image display device 40. The image inside is determined as the target object AT. The object-of-interest determination unit 102 does not need to determine the object of interest every time a frame is read by the frame reading unit 101. If the user does not specify an area in the frame via the input / output device 30, the object-of-interest determination unit 102 The image in the area specified last by is continued to be the target object.

すなわち、注目物体決定部102は、基本的に、表示対象の動画像から最初にフレームを読み込んだ際に注目物体の決定を一度行えば良い。したがって、注目物体決定部102は、後述する注目物体追跡部103による注目物体の追跡に失敗した場合、若しくは動画像の表示中に、入出力装置30を介してユーザによって新たな領域が指定された場合に、注目物体を決定しなおすものとする。   That is, the object-of-interest determination unit 102 basically only needs to determine the object of interest once when a frame is first read from a moving image to be displayed. Accordingly, the target object determination unit 102 designates a new area by the user via the input / output device 30 when the target object tracking unit 103 (to be described later) fails to track the target object or during the display of the moving image. In this case, the target object is determined again.

注目物体追跡部103(検出部の一例)は、フレーム読込部101によりフレームが読み込まれる度に、最後に読み込まれたフレーム(以下、カレントフレームと言う)内における注目物体の位置を検出することによって、当該注目物体を追跡する(ステップS203)。本実施の形態では、注目物体追跡部103は、非特許文献1に記載された一般的な物体位置検出方法を用いて、カレントフレーム内における注目物体の位置を検出する。ただし、注目物体追跡部103は、注目物体決定部102によって注目物体が決定されなかった場合、カレントフレーム内における注目物体の位置の検出を行わない。   The target object tracking unit 103 (an example of a detection unit) detects the position of the target object in the last read frame (hereinafter referred to as the current frame) every time the frame is read by the frame reading unit 101. The object of interest is tracked (step S203). In the present embodiment, the target object tracking unit 103 detects the position of the target object in the current frame using a general object position detection method described in Non-Patent Document 1. However, the target object tracking unit 103 does not detect the position of the target object in the current frame when the target object determination unit 102 does not determine the target object.

部分画像生成部104(切出部の一例)は、カレントフレームから、当該カレントフレームの一部でありかつ注目物体追跡部103により検出した位置の注目物体を含む画像を切り出して、当該切り出した画像を部分画像(第1画像の一例)として生成する(ステップS204)。図4は、第1の実施の形態にかかる動画表示装置における部分画像の生成処理を説明するための図である。本実施の形態では、部分画像生成部104は、図4に示すように、カレントフレームを、単位球Bで表現したカレントフレーム単位球CBを取得する。具体的には、部分画像生成部104は、カレントフレームが、魚眼カメラまたは全方位カメラの撮像により得られたフレームである場合、射影方式に基づいて、カレントフレームの撮影方向を特定し、当該撮影方向から、カレントフレームを単位球面にプロットすることによって、カレントフレーム単位球CBを取得する(特許文献3参照)。   The partial image generation unit 104 (an example of a cutout unit) cuts out an image including a target object at a position that is a part of the current frame and detected by the target object tracking unit 103 from the current frame, and the cutout image Is generated as a partial image (an example of a first image) (step S204). FIG. 4 is a diagram for explaining a partial image generation process in the moving image display apparatus according to the first embodiment. In the present embodiment, the partial image generation unit 104 acquires a current frame unit sphere CB in which the current frame is represented by a unit sphere B as shown in FIG. Specifically, when the current frame is a frame obtained by imaging with a fisheye camera or an omnidirectional camera, the partial image generation unit 104 specifies the shooting direction of the current frame based on the projection method, and The current frame unit sphere CB is obtained by plotting the current frame on the unit sphere from the shooting direction (see Patent Document 3).

そして、部分画像生成部104は、カレントフレーム単位球CBの一部でありかつ注目物体ATを含む画像を、中心(投影中心O)として、2次元平面(投影面S)に透視投影した画像を部分画像として生成する。   Then, the partial image generation unit 104 uses an image that is a part of the current frame unit sphere CB and includes the target object AT as a center (projection center O) and is projected on a two-dimensional plane (projection plane S). Generate as a partial image.

全体画像生成部105(生成部の一例)は、カレントフレーム内の注目物体の歪みを所定値以下とさせた全体画像(第2画像の一例)を生成する(ステップS205)。本実施の形態では、全体画像生成部105は、カレントフレームをパノラマ展開した全体画像を生成する。例えば、全体画像生成部105は、正距円筒図法を用いて、カレントフレーム内の注目物体の歪みが所定値以下になるように、カレントフレームをパノラマ展開する。これにより、カレントフレームを正距円筒図法を用いてパノラマ展開した場合でも、全体画像における注目物体に対応する領域を把握し易くすることができる。図5および図6は、第1の実施の形態にかかる動画表示装置におけるパノラマ展開を説明するための図である。具体的には、全体画像生成部105は、図5に示すように、カレントフレーム単位球CBの撮影方向Dを、経度θおよび緯度ψで表し、かつカレントフレーム単位球CBを、経度θと緯度ψの2次元直交座標系で表された全体画像G(所謂、正距円筒画像)に変換する。   The entire image generation unit 105 (an example of the generation unit) generates an entire image (an example of a second image) in which the distortion of the object of interest in the current frame is set to a predetermined value or less (step S205). In the present embodiment, the entire image generation unit 105 generates an entire image obtained by panoramic development of the current frame. For example, the whole image generation unit 105 uses the equirectangular projection to panoramicly develop the current frame so that the distortion of the object of interest in the current frame is a predetermined value or less. Thereby, even when the current frame is panorama developed using equirectangular projection, it is possible to easily grasp the region corresponding to the object of interest in the entire image. 5 and 6 are diagrams for explaining panoramic development in the moving image display apparatus according to the first embodiment. Specifically, as shown in FIG. 5, the entire image generation unit 105 represents the shooting direction D of the current frame unit sphere CB as longitude θ and latitude ψ, and represents the current frame unit sphere CB as longitude θ and latitude. The whole image G (so-called equirectangular image) expressed in the two-dimensional orthogonal coordinate system of ψ is converted.

正距円筒図法では、図6に示すように、カレントフレーム単位球CBにおける注目物体ATの位置の緯度ψが大きくなるに従い、全体画像G中の注目物体は水平方向に引き伸ばされる。一方、正距円筒図法では、図6に示すように、カレントフレーム単位球CBにおける注目物体の位置の緯度ψが0度において、全体画像G中の注目物体の歪みが最も小さくなる。そこで、全体画像生成部105は、カレントフレーム単位球CBに含まれる注目物体ATの位置の緯度ψを0度に設定する。次いで、全体画像生成部105は、注目物体ATの位置が緯度ψ:0度に設定されたカレントフレーム単位球CBをパノラマ展開した全体画像Gを生成する。これにより、全体画像生成部105は、カレントフレーム内の注目物体の歪みが小さい全体画像Gを得ることができる。   In the equirectangular projection, as shown in FIG. 6, as the latitude ψ of the position of the object of interest AT in the current frame unit sphere CB increases, the object of interest in the entire image G is stretched in the horizontal direction. On the other hand, in the equirectangular projection, as shown in FIG. 6, when the latitude ψ of the position of the object of interest in the current frame unit sphere CB is 0 degree, the distortion of the object of interest in the entire image G is the smallest. Therefore, the entire image generation unit 105 sets the latitude ψ of the position of the target object AT included in the current frame unit sphere CB to 0 degrees. Next, the entire image generation unit 105 generates an entire image G obtained by panoramic development of the current frame unit sphere CB in which the position of the object of interest AT is set to latitude ψ: 0 °. Thereby, the whole image generation unit 105 can obtain the whole image G in which the distortion of the object of interest in the current frame is small.

本実施の形態では、全体画像生成部105は、正距円筒図法を用いて、カレントフレームをパノラマ展開したが、これに限定するものではなく、例えば、その他の円筒図法、円錐図法、方位図法等を用いて、カレントフレームをパノラマ展開しても良い。   In the present embodiment, the whole image generation unit 105 panoramicly expands the current frame using equirectangular projection, but the present invention is not limited to this. For example, other cylindrical projection, conic projection, azimuth projection, etc. The current frame may be panorama developed using.

図2に戻り、注目物体領域強調部106は、全体画像生成部105により生成された全体画像内における部分画像に対応する領域(以下、注目物体領域と言う)の表示態様を強調表示にする(ステップS206)。図7および図8は、第1の実施の形態にかかる動画表示装置における注目物体領域の表示態様の一例を示す図である。本実施の形態では、注目物体領域強調部106は、図7に示すように、画像表示装置40に表示する全体画像Gに含まれる注目物体ATを囲む矩形状の枠700を、当該全体画像Gに含めることによって、注目物体領域の表示態様を強調表示にする。本実施の形態では、注目物体領域強調部106は、全体画像に含まれる注目物体領域の表示態様を強調表示にしているが、注目物体領域の表示態様を、全体画像の注目物体領域以外の領域と異なる表示態様にするものであれば、これに限定するものではない。例えば、注目物体領域強調部106は、図8に示すように、全体画像Gにおける部分画像gに対応する注目物体領域rとその他の領域の境界線800を、全体画像Gに含めても良い。   Returning to FIG. 2, the target object region emphasizing unit 106 highlights the display mode of the region corresponding to the partial image (hereinafter referred to as the target object region) in the whole image generated by the whole image generating unit 105 ( Step S206). 7 and 8 are diagrams illustrating an example of a display mode of the target object region in the moving image display apparatus according to the first embodiment. In the present embodiment, as shown in FIG. 7, the target object region emphasizing unit 106 displays a rectangular frame 700 surrounding the target object AT included in the whole image G displayed on the image display device 40, as the whole image G. The display mode of the target object area is highlighted by being included in. In the present embodiment, the target object area emphasizing unit 106 highlights the display mode of the target object area included in the entire image, but the display mode of the target object area is changed to an area other than the target object area of the total image. However, the display mode is not limited to this. For example, the target object region emphasizing unit 106 may include a boundary line 800 between the target object region r corresponding to the partial image g in the whole image G and other regions in the whole image G as shown in FIG.

画像表示部107は、部分画像生成部104により生成された部分画像および全体画像生成部105により生成された全体画像のうち、少なくとも全体画像を、画像表示装置40に表示する(ステップS207)。これにより、魚眼カメラや全方位カメラ等によって広角で撮像して得られた動画像に含まれる注目物体を切り出して表示する場合に、全体画像における、部分画像に対応する領域を把握し易くすることができる。   The image display unit 107 displays at least the entire image among the partial image generated by the partial image generation unit 104 and the entire image generated by the entire image generation unit 105 on the image display device 40 (step S207). This makes it easy to grasp the region corresponding to the partial image in the entire image when the object of interest included in the moving image obtained by capturing at a wide angle with a fish-eye camera or an omnidirectional camera is displayed. be able to.

本実施の形態では、画像表示部107は、部分画像および全体画像を、画像表示装置40の表示画面の異なる領域に表示する。図9および図10は、第1の実施の形態にかかる動画表示装置における部分画像および全体画像の表示例を示す図である。例えば、画像表示部107は、図9に示すように、部分画像gおよび全体画像Gを、画像表示装置40の表示画面において並べて表示しても良い。または、画像表示部107は、図10に示すように、画像表示装置40の表示画面に対して、部分画像gの一部に全体画像Gを重畳して表示しても良い。本実施の形態では、注目物体領域強調部106および画像表示部107が、全体画像における注目物体領域の表示態様を他の領域と異ならせる表示制御部の一例として機能する。   In the present embodiment, the image display unit 107 displays the partial image and the entire image in different areas of the display screen of the image display device 40. FIGS. 9 and 10 are diagrams illustrating display examples of the partial image and the entire image in the moving image display apparatus according to the first embodiment. For example, the image display unit 107 may display the partial image g and the entire image G side by side on the display screen of the image display device 40 as shown in FIG. Alternatively, the image display unit 107 may superimpose and display the entire image G on a part of the partial image g on the display screen of the image display device 40 as shown in FIG. In the present embodiment, the target object region emphasizing unit 106 and the image display unit 107 function as an example of a display control unit that changes the display mode of the target object region in the entire image from other regions.

その後、フレーム読込部101は、カレントフレームが、表示対象の動画像を構成する最後のフレームか否かを判断する(ステップS208)。カレントフレームが最後のフレームでないと判断した場合(ステップS208:No)、フレーム読込部101は、ステップS201に戻り、カレントフレームの次のフレームを読み込む。一方、カレントフレームが最後のフレームであると判断した場合(ステップS208:Yes)、フレーム読込部101は、フレームの読み込みを終了する。   Thereafter, the frame reading unit 101 determines whether or not the current frame is the last frame constituting the moving image to be displayed (step S208). When it is determined that the current frame is not the last frame (step S208: No), the frame reading unit 101 returns to step S201 and reads the next frame of the current frame. On the other hand, when it is determined that the current frame is the last frame (step S208: Yes), the frame reading unit 101 ends reading of the frame.

このように、第1の実施の形態にかかる画像表示装置によれば、全体画像における部分画像に対応する領域の表示態様を、他の領域と異ならせることができるので、魚眼カメラや全方位カメラ等によって広角で撮像して得られた動画像に含まれる注目物体を切り出して表示する場合に、全体画像における、部分画像に対応する領域を把握し易くすることができる。   As described above, according to the image display device according to the first embodiment, the display mode of the area corresponding to the partial image in the entire image can be different from that of other areas. When an object of interest included in a moving image obtained by imaging with a camera or the like at a wide angle is cut out and displayed, an area corresponding to a partial image in the entire image can be easily grasped.

(第2の実施の形態)
本実施の形態では、全体画像を表示済みのフレームからの注目物体の位置の検出履歴に基づいて、全体画像において注目物体が動く範囲(以下、動作予測範囲と言う)を予測し、当該動作予測範囲の歪みを所定値以下とさせた全体画像を生成する例である。以下の説明では、第1の実施の形態と同様の箇所については説明を省略する。
(Second Embodiment)
In the present embodiment, based on the detection history of the position of the object of interest from the frame in which the entire image has been displayed, a range in which the object of interest moves in the entire image (hereinafter referred to as an operation prediction range) is predicted, and the operation prediction is performed. This is an example of generating an entire image with a range distortion set to a predetermined value or less. In the following description, description of the same parts as in the first embodiment will be omitted.

図11は、第2の実施の形態にかかる動画閲覧装置の機能構成の一例を示すブロック図である。図11に示すように、本実施の形態にかかる動画閲覧装置1100は、動作範囲予測部1101が追加され、かつ第1の実施の形態とは動作が異なる全体画像生成部1102を有している。   FIG. 11 is a block diagram illustrating an example of a functional configuration of the moving image browsing apparatus according to the second embodiment. As illustrated in FIG. 11, the moving image browsing apparatus 1100 according to the present embodiment includes an entire image generation unit 1102 to which an operation range prediction unit 1101 is added and whose operation is different from that of the first embodiment. .

次に、図12を用いて、本実施の形態にかかる動画表示装置による動画像の表示処理について説明する。図12は、第2の実施の形態にかかる動画表示装置における動画像の表示処理の流れの一例を示すフローチャートである。   Next, a moving image display process performed by the moving image display apparatus according to the present embodiment will be described with reference to FIG. FIG. 12 is a flowchart illustrating an exemplary flow of a moving image display process in the moving image display apparatus according to the second embodiment.

本実施の形態では、動作範囲予測部1101は、注目物体追跡部103による注目物体の位置の検出履歴(すなわち、全体画像を表示済みのフレームからの注目物体の位置の検出履歴)に基づいて、動画像内において注目物体が動く範囲である動作予測範囲(第1範囲の一例)を予測する(ステップ1201)。図13は、第2の実施の形態にかかる動画表示装置における動作予測範囲の予測処理の一例を説明するための図である。具体的には、動作範囲予測部1101は、注目物体が直線運動すると仮定する。次いで、動作範囲予測部1101は、図13に示すように、カレントフレームFの1フレーム前のフレームF−1において検出された注目物体の位置P−1を起点として、カレントフレームFにおいて検出された注目物体の位置Pを通る半直線である動作予測直線lを、動作予測範囲とする。   In the present embodiment, the motion range prediction unit 1101 is based on the detection history of the position of the target object by the target object tracking unit 103 (that is, the detection history of the position of the target object from the frame in which the entire image has been displayed). A motion prediction range (an example of a first range) that is a range in which the object of interest moves within the moving image is predicted (step 1201). FIG. 13 is a diagram for explaining an example of a motion prediction range prediction process in the moving image display apparatus according to the second embodiment. Specifically, the motion range prediction unit 1101 assumes that the object of interest moves linearly. Next, the motion range prediction unit 1101 is detected in the current frame F, starting from the position P-1 of the target object detected in the frame F-1 that is one frame before the current frame F, as shown in FIG. A motion prediction line l that is a half line passing through the position P of the object of interest is set as a motion prediction range.

または、動作範囲予測部1101は、カレントフレームより前のフレーム(過去のフレーム)における注目物体の位置の分布に従ったパラメトリックな注目物体の位置の軌道(以下、軌道モデルと言う)を求める。さらに、動作範囲予測部1101は、軌道モデルのパラメータを、最小二乗法を用いて同定しても良い。例えば、動作範囲予測部1101は、時刻tにおける注目物体の位置を(x(t),y(t))として、下記の式(1)に示すM次多項式で表される軌道モデルを求める。

Figure 0006613686
式(1)において、{a i=1は、軌道モデルのパラメータである。そして、動作範囲予測部1101は、式(1)で表される軌道モデルに従って、カレントフレーム以降のフレームにおける注目物体の位置を動作予測範囲として求める。 Alternatively, the motion range prediction unit 1101 obtains a parametric target object trajectory (hereinafter referred to as a trajectory model) according to the target object position distribution in a frame (past frame) before the current frame. Further, the motion range prediction unit 1101 may identify the parameters of the trajectory model using the least square method. For example, the motion range prediction unit 1101 obtains a trajectory model represented by the Mth order polynomial shown in the following equation (1), where (x (t), y (t)) is the position of the object of interest at time t.
Figure 0006613686
In equation (1), {a i } M i = 1 is a parameter of the trajectory model. Then, the motion range prediction unit 1101 obtains the position of the object of interest in the frames subsequent to the current frame as the motion prediction range according to the trajectory model represented by Expression (1).

または、動作範囲予測部1101は、状態空間モデルを用いて、最後に読み込んだフレームにおける注目物体の位置から、動作予測範囲を求めても良い。例えば、動作範囲予測部1101は、注目物体の追跡に状態空間モデルを用いている場合、その時点でのパラメータ(注目物体の位置)を用いて、状態空間モデルによって動作予測範囲を求める。例えば、動作範囲予測部1101は、下記の式(2)で表すM次多項式の状態空間モデルを用いて、漸化式を繰り返し解いて動作予測範囲を求める。

Figure 0006613686
Alternatively, the motion range prediction unit 1101 may obtain the motion prediction range from the position of the object of interest in the frame read last using the state space model. For example, when the state space model is used for tracking the target object, the motion range prediction unit 1101 obtains the motion prediction range based on the state space model using the parameter (position of the target object) at that time. For example, the motion range prediction unit 1101 obtains a motion prediction range by repeatedly solving the recurrence formula using an M-order polynomial state space model expressed by the following formula (2).
Figure 0006613686

上述した動作予測範囲の予測方法は、いずれも動作予測範囲として直線または曲線を求める方法であるが、求めた直線または曲線に変動幅を持たせた領域を動作予測範囲としても良い。具体的には、動作範囲予測部1101は、動作予測範囲を、注目物体の位置(x(t))に対する確率分布p(x)として求める。例えば、動作範囲予測部1101は、上記の式(2)の状態空間モデルに乱数項εを入れた下記の式(3)を用いて、注目物体の位置の確率分布p(x)を求める。

Figure 0006613686
The motion prediction range prediction methods described above are all methods for obtaining a straight line or a curve as the motion prediction range, but a region in which the obtained straight line or curve has a fluctuation range may be used as the motion prediction range. Specifically, the motion range prediction unit 1101 obtains the motion prediction range as a probability distribution p (x) with respect to the position (x (t)) of the target object. For example, the motion range prediction unit 1101 obtains the probability distribution p (x) of the position of the object of interest using the following equation (3) in which a random term ε is added to the state space model of the above equation (2).
Figure 0006613686

また、動作範囲予測部1101は、動作予測範囲を軌跡f(x)=0として求めた場合も、下記の式(4)によれば、変動幅を持たせた動作予測範囲を、確率密度関数で表すことができる。式(4)において、Lは、軌跡f(x)の長さである。

Figure 0006613686
Further, even when the motion range prediction unit 1101 obtains the motion prediction range as the trajectory f (x) = 0, according to the following equation (4), the motion range prediction range is given a probability density function. It can be expressed as In Expression (4), L is the length of the trajectory f (x).
Figure 0006613686

または、動作範囲予測部1101は、下記の式(5)に示すように、軌跡f(x)に適当な幅σを持たせた確率密度関数によって、動作予測範囲を表すことも可能である。

Figure 0006613686
Alternatively, the motion range prediction unit 1101 can also represent the motion prediction range by a probability density function in which the trajectory f (x) has an appropriate width σ, as shown in the following equation (5).
Figure 0006613686

図12に戻り、全体画像生成部1102は、カレントフレーム内の動作予測範囲の歪みを所定値以下とさせた全体画像を生成する(ステップS1202)。例えば、全体画像生成部1102は、カレントフレームのパノラマ展開に正距円筒図法を用い、かつ、図13に示すように、動作範囲予測部1101により求めた動作予測範囲が直線的である場合、正距円筒画像における動作予測範囲が緯度ψ:0度に位置するように、カレントフレームをパノラマ展開する。   Returning to FIG. 12, the entire image generation unit 1102 generates an entire image in which the distortion of the motion prediction range in the current frame is set to a predetermined value or less (step S1202). For example, if the equirectangular projection is used for panorama development of the current frame and the motion prediction range obtained by the motion range prediction unit 1101 is linear as shown in FIG. The current frame is panoramicly developed so that the motion prediction range in the distance cylindrical image is located at latitude ψ: 0 °.

ところで、正距円筒図法においては、カレントフレーム内の画像が、緯度ψにおいて、水平方向に1/cоsψ倍される。そこで、全体画像生成部1102は、動作予測範囲に1/cоsψを足し合わせた値(定積分値)を評価関数として、当該評価関数が最小化されるように、カレントフレームをパノラマ展開しても良い。例えば、全体画像生成部1102は、動作予測範囲が確率密度関数p(x)で表される場合、下記の式(6)に示す評価関数Jが最小化されるように、カレントフレームをパノラマ展開する。

Figure 0006613686
式(6)において、Sは注目物体の位置xの定義域であり、w(x)は注目物体の位置xにおける全体画像の歪みを反映した重み関数である。重み関数w(x)は、正距円筒図法において、下記の式(7)により表される。
Figure 0006613686
By the way, in equirectangular projection, an image in the current frame is multiplied by 1 / c ψ in the horizontal direction at latitude ψ. Therefore, the entire image generation unit 1102 uses the value obtained by adding 1 / c ψ to the motion prediction range (definite integral value) as an evaluation function, and even if the current frame is panorama expanded so that the evaluation function is minimized. good. For example, when the motion prediction range is represented by the probability density function p (x), the entire image generation unit 1102 expands the current frame in a panoramic manner so that the evaluation function J shown in the following equation (6) is minimized. To do.
Figure 0006613686
In Expression (6), S is a domain of the position x of the target object, and w (x) is a weighting function that reflects the distortion of the entire image at the position x of the target object. The weight function w (x) is expressed by the following equation (7) in equirectangular projection.
Figure 0006613686

つまり、重み関数w(x)は、カレントフレーム内において、水平方向に1/cоsψ倍される位置が歪みの無い位置から離れている距離を表している。ここで、カレントフレーム内の注目物体の位置xからψ(およびθ)への変換は、回転Rと並進Tを用いた下記の式(8)により表される。

Figure 0006613686
That is, the weighting function w (x) represents the distance that the position multiplied by 1 / c ψ in the horizontal direction is away from the position without distortion in the current frame. Here, the conversion from the position x of the object of interest in the current frame to ψ (and θ) is expressed by the following equation (8) using the rotation R and the translation T.
Figure 0006613686

よって、全体画像生成部1102は、式(6),(7)を最小化する回転Rおよび並進Tを求める最適化問題を解くことになる。この最適化問題は、非線形の最適化問題となるため、ニュートン法や共役勾配法などの非線形計画法により求解される。   Therefore, the entire image generation unit 1102 solves the optimization problem for obtaining the rotation R and translation T that minimize Equations (6) and (7). Since this optimization problem is a nonlinear optimization problem, it is solved by a nonlinear programming method such as Newton's method or conjugate gradient method.

上述したように、重み関数w(x)は、全体画像における注目物体の位置xにおける歪みの度合いを表すものであれば良い。よって、正距円筒図法以外の他の図法を用いてカレントフレームをパノラマ展開する場合でも、他の図法による全体画像における注目物体の歪みの度合いを利用して、カレントフレームをパノラマ展開する。   As described above, the weighting function w (x) only needs to represent the degree of distortion at the position x of the target object in the entire image. Therefore, even when the current frame is panorama developed using a method other than the equirectangular projection, the current frame is panorama developed using the degree of distortion of the object of interest in the entire image by another method.

注目物体の位置xの座標系は、任意の座標系を用いることができる。例えば、カレントフレーム上での座標系でも良いし、部分画像上の座標系でも良いし、全体画像上での座標系でも良い。   An arbitrary coordinate system can be used as the coordinate system of the position x of the object of interest. For example, a coordinate system on the current frame, a coordinate system on a partial image, or a coordinate system on the entire image may be used.

このように、第2の実施形態にかかる画像表示装置によれば、広角で撮像して得られた動画像に含まれる注目物体を切り出して表示する場合に、今後の注目物体の動きを考慮して、全体画像における動作予測範囲が強調表示されるので、全体画像における、部分画像に対応する領域の位置をより把握し易くすることができる。   As described above, according to the image display apparatus according to the second embodiment, when a target object included in a moving image obtained by imaging at a wide angle is cut out and displayed, the future movement of the target object is considered. Thus, since the motion prediction range in the entire image is highlighted, it is possible to make it easier to grasp the position of the region corresponding to the partial image in the entire image.

(第3の実施の形態)
本実施の形態は、カレントフレームの水平方向を検出し、カレントフレームの水平方向を保ったまま、カレントフレームをパノラマ展開する例である。以下の説明では、第1,2の実施の形態と異なる箇所について説明する。
(Third embodiment)
The present embodiment is an example in which the horizontal direction of the current frame is detected, and the current frame is panorama developed while maintaining the horizontal direction of the current frame. In the following description, portions different from the first and second embodiments will be described.

図14は、第3の実施の形態にかかる動作閲覧装置の構成の一例を示すブロック図である。図14に示すように、本実施の形態にかかる動画閲覧装置1400は、第2の実施の形態とは動作が異なる全体画像生成部1401を有している。また、本実施の形態では、記憶装置20に記憶された動画像を撮像した撮像機器は、当該撮像機器が搭載する加速度センサによって、動画像を撮像した際の加速度を検出し、加速度の検出結果を動画像のメタデータとして付加する。そして、全体画像生成部1401は、表示対象の動画像に付加された加速度の検出結果に基づいて、動画像を構成するフレームにおける重力方向および当該重力方向に直交する水平方向を検出する。   FIG. 14 is a block diagram illustrating an example of the configuration of the motion browsing apparatus according to the third embodiment. As illustrated in FIG. 14, the moving image browsing apparatus 1400 according to the present embodiment includes an entire image generation unit 1401 that operates differently from the second embodiment. In the present embodiment, the imaging device that captured the moving image stored in the storage device 20 detects the acceleration when the moving image is captured by the acceleration sensor mounted on the imaging device, and the acceleration detection result Is added as metadata of a moving image. Then, the entire image generation unit 1401 detects the gravitational direction in the frame constituting the moving image and the horizontal direction orthogonal to the gravitational direction based on the detection result of the acceleration added to the moving image to be displayed.

次に、図15を用いて、動画表示装置による動画像の表示処理について説明する。図15は、第3の実施の形態にかかる動画表示装置による動画像の表示処理の流れの一例を示すフローチャートである。   Next, moving image display processing by the moving image display apparatus will be described with reference to FIG. FIG. 15 is a flowchart illustrating an exemplary flow of a moving image display process performed by the moving image display apparatus according to the third embodiment.

本実施の形態では、全体画像生成部1401は、カレントフレームの水平方向を保ったまま、当該動作予測範囲の歪みが所定値以下となるように、カレントフレームをパノラマ展開した全体画像を生成する(ステップS1501)。経験的に、カレントフレームに含まれる注目物体は水平方向に移動する場合が多く、水平方向へのカレントフレームの傾きが無い方が注目物体の視認性が良くなる。そこで、全体画像生成部1401は、全体画像の水平方向と、実際の撮像により得られた画像(すなわち、カレントフレーム)の水平方向とが一致するという制約の下に、カレントフレームをパノラマ展開する。なお、全体画像生成部1401は、第1,2の実施の形態と同様にして、カレントフレームをパノラマ展開するものとする。   In the present embodiment, the entire image generation unit 1401 generates an entire image in which the current frame is panorama developed so that the distortion of the motion prediction range is a predetermined value or less while maintaining the horizontal direction of the current frame ( Step S1501). Empirically, the object of interest included in the current frame often moves in the horizontal direction, and the visibility of the object of interest is better when the current frame is not inclined in the horizontal direction. Therefore, the entire image generation unit 1401 expands the current frame in a panorama manner under the constraint that the horizontal direction of the entire image matches the horizontal direction of the image obtained by actual imaging (that is, the current frame). Note that the entire image generation unit 1401 performs panoramic development of the current frame in the same manner as in the first and second embodiments.

このように、第3の実施の形態にかかる画像表示装置によれば、カレントフレームの水平方向が保たれたまま、当該カレントフレームがパノラマ展開されるので、全体画像を表示する場合に、全体画像における注目物体領域の傾きが軽減され当該注目物体領域をより把握し易くすることができる。   As described above, according to the image display device according to the third embodiment, the current frame is panorama developed while maintaining the horizontal direction of the current frame. Therefore, when displaying the entire image, the entire image is displayed. The inclination of the target object area in the area is reduced, and the target object area can be more easily grasped.

(第4の実施の形態)
本実施の形態は、動画像を構成する全てのフレーム内における注目物体の位置を予め検出しておき、全てのフレーム内における注目物体の位置の集合である注目物体位置群(位置群の一例)に基づいて、注目物体の動作範囲を決定し、カレントフレームにおける動作範囲の歪みを所定以下とさせた全体画像を生成する例である。以下の説明では、第1,2,3の実施の形態と同様の箇所については説明を省略する。
(Fourth embodiment)
In this embodiment, positions of target objects in all frames constituting a moving image are detected in advance, and a target object position group (an example of a position group) that is a set of positions of target objects in all frames This is an example in which the motion range of the object of interest is determined based on the above and an entire image is generated in which the motion range distortion in the current frame is set to a predetermined value or less. In the following description, description of the same parts as those in the first, second, and third embodiments is omitted.

図16は、第4の実施の形態にかかる動画閲覧装置の構成の一例を示すブロック図である。図16に示すように、第4の実施の形態にかかる動画表示装置の動画閲覧装置1600は、上述の実施の形態とは動作が異なる、フレーム読込部1601、注目物体決定部1602、注目物体追跡部1603、部分画像生成部1604、全体画像生成部1605、注目物体領域強調部1606、および画像表示部1607を有している。   FIG. 16 is a block diagram illustrating an example of a configuration of a moving image browsing apparatus according to the fourth embodiment. As shown in FIG. 16, the moving image browsing apparatus 1600 of the moving image display apparatus according to the fourth embodiment is different in operation from the above-described embodiment, and includes a frame reading unit 1601, a target object determining unit 1602, and a target object tracking. A unit 1603, a partial image generation unit 1604, an entire image generation unit 1605, an attention object region enhancement unit 1606, and an image display unit 1607.

次に、図17および図18を用いて、動画表示装置による動画像の表示処理について説明する。図17は、第4の実施の形態にかかる動画表示装置による動画像の読込処理の流れの一例を示すフローチャートである。図18は、第4の実施の形態にかかる動画表示装置による動画像の表示処理の流れの一例を示すフローチャートである。   Next, moving image display processing by the moving image display apparatus will be described with reference to FIGS. 17 and 18. FIG. 17 is a flowchart illustrating an example of a moving image reading process performed by the moving image display apparatus according to the fourth embodiment. FIG. 18 is a flowchart illustrating an exemplary flow of a moving image display process performed by the moving image display apparatus according to the fourth embodiment.

本実施の形態では、フレーム読込部1601は、入出力装置30からの操作情報の入力に関わらず、記憶装置20から、表示対象の動画像を、1フレームずつ読み込む(ステップS1701)。本実施の形態でも、フレーム読込部1601は、表示対象の動画像の最初のフレームまたは入出力装置30を介してユーザにより指示されたフレームから順に読み込む。   In the present embodiment, the frame reading unit 1601 reads a moving image to be displayed frame by frame from the storage device 20 regardless of the input of operation information from the input / output device 30 (step S1701). Also in this embodiment, the frame reading unit 1601 sequentially reads from the first frame of the moving image to be displayed or the frame instructed by the user via the input / output device 30.

注目物体決定部1602は、読み込んだフレーム内において、入出力装置30を介してユーザにより指定された画像を注目物体に決定する(ステップS1702)。注目物体追跡部1603は、フレーム読込部1601によってフレームが読み込まれる度に(ステップS1703)、当該フレーム内における注目物体の位置を検出することによって、当該注目物体を追跡する(ステップS1704)。注目物体追跡部1603は、検出した注目物体の位置を、当該位置を検出したフレームと対応付けて記憶装置20に保存する。   The target object determination unit 1602 determines an image designated by the user via the input / output device 30 as the target object in the read frame (step S1702). Every time a frame is read by the frame reading unit 1601 (step S1703), the target object tracking unit 1603 tracks the target object by detecting the position of the target object in the frame (step S1704). The target object tracking unit 1603 stores the detected position of the target object in the storage device 20 in association with the frame in which the position is detected.

そして、フレーム読込部1601は、注目物体追跡部1603によって注目物体の位置が検出されると、最後に読み込んだフレームが、表示対象の動画像を構成する最後のフレームか否かを判断する(ステップS1705)。最後に読み込んだフレームが、表示対象の動画像を構成する最後のフレームではないと判断した場合(ステップS1705:No)、フレーム読込部1601は、最後に読み込んだフレームの次のフレームを読み込む(ステップS1703)。一方、最後に読み込んだフレームが、表示対象の動画像を構成する最後のフレームであると判断した場合(ステップS1705:Yes)、フレーム読込部1601は、フレームの読み込み処理を終了する。すなわち、注目物体追跡部1603は、動画像を構成する全てのフレーム内における注目物体の位置を予め検出する。   Then, when the position of the target object is detected by the target object tracking section 1603, the frame reading unit 1601 determines whether or not the last read frame is the last frame constituting the moving image to be displayed (step). S1705). If it is determined that the last read frame is not the last frame constituting the moving image to be displayed (step S1705: No), the frame reading unit 1601 reads the next frame after the last read frame (step S1705). S1703). On the other hand, when it is determined that the last read frame is the last frame constituting the moving image to be displayed (step S1705: Yes), the frame reading unit 1601 ends the frame reading process. That is, the object-of-interest tracking unit 1603 detects in advance the position of the object of interest in all frames constituting the moving image.

その後、入出力装置30を介して動画像の表示が指示されると、フレーム読込部1601は、記憶装置20から、表示が指示された動画像(表示対象の動画像)を構成するフレームを読み込む(ステップS1801)。次いで、部分画像生成部1604は、フレーム読込部1601により読み込んだカレントフレームから、当該カレントフレームの一部でありかつ当該カレントフレームと対応付けて記憶装置20に記憶された位置に存在する注目物体を含む画像を切り出す。そして、部分画像生成部1604は、切り出した画像に基づく部分画像を生成する(ステップS1802)。部分画像の生成方法は、第1の実施の形態と同様である。   Thereafter, when display of a moving image is instructed via the input / output device 30, the frame reading unit 1601 reads frames constituting the moving image (display target moving image) instructed to display from the storage device 20. (Step S1801). Next, the partial image generation unit 1604 selects a target object that is a part of the current frame from the current frame read by the frame reading unit 1601 and exists at a position stored in the storage device 20 in association with the current frame. Cut out the containing image. Then, the partial image generation unit 1604 generates a partial image based on the clipped image (step S1802). The partial image generation method is the same as that in the first embodiment.

全体画像生成部1605は、表示対象の動画像を構成する複数のフレームと対応付けて記憶装置20に記憶された注目物体の位置の集合である注目物体位置群に基づいて、当該カレントフレームにおける注目物体の動作範囲を決定し、当該動作範囲の歪みが所定値以下となるように、カレントフレームをパノラマ展開した全体画像を生成する(ステップS1803)。これにより、部分画像が移動する範囲を考慮して、カレントフレームの歪みを軽減した全体画像が生成されるので、全体画像における注目物体領域をより把握し易くすることができる。   The overall image generation unit 1605 is based on a target object position group that is a set of target object positions stored in the storage device 20 in association with a plurality of frames constituting a moving image to be displayed. The motion range of the object is determined, and an entire image in which the current frame is panoramic developed so that the distortion of the motion range is a predetermined value or less is generated (step S1803). As a result, the entire image in which the distortion of the current frame is reduced is generated in consideration of the range in which the partial image moves, so that the target object region in the entire image can be more easily grasped.

本実施の形態では、全体画像生成部1605は、表示対象の動画像を構成する複数のフレームそれぞれにおける注目物体の位置の確率分布pに、正規分布や一様分布やそれらの混合分布等のパラメトリックなモデルを仮定し、そのパラメータを、注目物体の動作範囲と同定する。若しくは、全体画像生成部1605は、表示対象の動画像を構成する複数のフレームそれぞれにおける注目物体の位置群をそのまま使った経験分布を注目物体の動作範囲としても良い。   In the present embodiment, the entire image generation unit 1605 includes a parametric such as a normal distribution, a uniform distribution, or a mixture distribution thereof in the probability distribution p of the position of the object of interest in each of a plurality of frames constituting the moving image to be displayed. A model is assumed, and its parameter is identified as the motion range of the object of interest. Alternatively, the entire image generation unit 1605 may use an experience distribution using the position group of the target object as it is in each of a plurality of frames constituting the moving image to be displayed as the target object motion range.

注目物体領域強調部1606は、第1の実施の形態と同様に、全体画像生成部1605により生成された全体画像に含まれる注目物体の表示態様を強調表示にする(ステップS1804)。画像表示部1607は、第1の実施の形態と同様に、部分画像生成部1604により生成された部分画像および全体画像生成部1605により生成された全体画像のうち、少なくとも全体画像を、画像表示装置40に表示する(ステップS1805)。その後、フレーム読込部1601は、カレントフレームが、表示対象の動画像を構成する最後のフレームか否かを判断する(ステップS1806)。   The attention object area emphasizing unit 1606 highlights the display mode of the attention object included in the entire image generated by the entire image generation unit 1605 as in the first embodiment (step S1804). As in the first embodiment, the image display unit 1607 displays at least the entire image among the partial image generated by the partial image generation unit 1604 and the entire image generated by the entire image generation unit 1605, as an image display device. 40 (step S1805). Thereafter, the frame reading unit 1601 determines whether or not the current frame is the last frame constituting the moving image to be displayed (step S1806).

カレントフレームが最後のフレームでないと判断した場合(ステップS1806:No)、フレーム読込部1601は、ステップS1801に戻り、カレントフレームの次のフレームを読み込む。一方、カレントフレームが最後のフレームであると判断した場合(ステップS1806:Yes)、フレーム読込部1601は、フレームの読み込みを終了する。   If it is determined that the current frame is not the last frame (step S1806: NO), the frame reading unit 1601 returns to step S1801 and reads the next frame of the current frame. On the other hand, if it is determined that the current frame is the last frame (step S1806: YES), the frame reading unit 1601 finishes reading the frame.

このように、第4の実施の形態にかかる画像表示装置によれば、部分画像が移動する範囲を考慮して、カレントフレームの歪みを軽減した全体画像が生成されるので、全体画像における部分画像に対応する領域をより把握し易くすることができる。   As described above, according to the image display device according to the fourth embodiment, the entire image in which the distortion of the current frame is reduced is generated in consideration of the range in which the partial image moves. It is possible to make it easier to grasp the area corresponding to.

なお、本実施の形態の動画閲覧装置10,1100,1400,1600で実行されるプログラムは、ROM(Read Only Memory)等に予め組み込まれて提供される。本実施の形態の動画閲覧装置10,1100,1400,1600で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。   Note that the program executed by the moving image browsing apparatuses 10, 1100, 1400, and 1600 of the present embodiment is provided by being incorporated in advance in a ROM (Read Only Memory) or the like. The programs executed by the moving image browsing apparatuses 10, 1100, 1400, and 1600 of the present embodiment are files in an installable format or an executable format, such as CD-ROM, flexible disk (FD), CD-R, DVD ( The recording medium may be recorded on a computer-readable recording medium such as a digital versatile disk).

さらに、本実施の形態の動画閲覧装置10,1100,1400,1600で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施の形態の動画閲覧装置10,1100,1400,1600で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。   Furthermore, the program executed by the moving image browsing apparatus 10, 1100, 1400, 1600 of the present embodiment is stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. You may do it. Further, the program executed by the moving image browsing apparatuses 10, 1100, 1400, and 1600 of the present embodiment may be configured to be provided or distributed via a network such as the Internet.

本実施の形態の動画閲覧装置10,1100,1400,1600で実行されるプログラムは、上述した各部(フレーム読込部101,1601、注目物体決定部102,1602、注目物体追跡部103、1603、部分画像生成部104,1604、全体画像生成部105,1102,1401,1605、注目物体領域強調部106,1606、画像表示部107,1607、動作範囲予測部1101)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(Central Processing Unit)が上記ROMからプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、フレーム読込部101,1601、注目物体決定部102,1602、注目物体追跡部103、1603、部分画像生成部104,1604、全体画像生成部105,1102,1401,1605、注目物体領域強調部106,1606、画像表示部107,1607、動作範囲予測部1101が主記憶装置上に生成されるようになっている。   The programs executed by the moving image browsing apparatuses 10, 1100, 1400, and 1600 according to the present embodiment are the above-described units (frame reading units 101 and 1601, target object determination units 102 and 1602, target object tracking units 103 and 1603, parts The module configuration includes the image generation units 104 and 1604, the entire image generation units 105, 1102, 1401, and 1605, the target object region enhancement units 106 and 1606, the image display units 107 and 1607, and the motion range prediction unit 1101). As actual hardware, a CPU (Central Processing Unit) reads out a program from the ROM and executes it, so that the above-described units are loaded on the main storage device, and the frame reading units 101 and 1601, the object-of-interest determining units 102 and 1602, Attention object tracking units 103 and 1603, partial image generation units 104 and 1 Reference numeral 604, an entire image generation unit 105, 1102, 1401, 1605, an attention object region enhancement unit 106, 1606, an image display unit 107, 1607, and an operation range prediction unit 1101 are generated on the main storage device.

10,1100,1400,1600 動画閲覧装置
20 記憶装置
30 入出力装置
40 画像表示装置
101,1601 フレーム読込部
102,1602 注目物体決定部
103,1603 注目物体追跡部
104,1604 部分画像生成部
105,1102,1401,1605 全体画像生成部
106,1606 注目物体領域強調部
107,1607 画像表示部
1101 動作範囲予測部
10, 1100, 1400, 1600 Movie browsing device 20 Storage device 30 Input / output device 40 Image display device 101, 1601 Frame reading unit 102, 1602 Target object determination unit 103, 1603 Target object tracking unit 104, 1604 Partial image generation unit 105, 1102, 1401, 1605 Whole image generation unit 106, 1606 Object-of-interest region enhancement unit 107, 1607 Image display unit 1101 Motion range prediction unit

特開2008−203756号公報JP 2008-203756 A 特開2014−085845号公報JP 2014-085845 A 特許第5233926号公報Japanese Patent No. 5233926 特許第5733088号公報Japanese Patent No. 5733088 特開2012−244479号公報JP 2012-244479 A

Y. Wu, J. Lim, M.H. Yang, “Object Tracking Benchmark,” IEEE Transactions on Pattern Analysis and Machine Intelligence, Pre-Prints, 2015.Y. Wu, J. Lim, M.H. Yang, “Object Tracking Benchmark,” IEEE Transactions on Pattern Analysis and Machine Intelligence, Pre-Prints, 2015.

Claims (7)

動画像を構成するフレームから、当該フレーム内の一部でありかつ所定画像を含む第1画像を切り出す切出部と、
前記フレーム内の前記所定画像の歪みを所定以下とさせた第2画像を生成する生成部と、
前記第2画像における前記第1画像に対応する領域の表示態様を他の領域と異ならせて表示させる表示制御部と、
前記フレーム内における前記所定画像の位置を検出する検出部と、
前記第2画像を表示済みの前記フレームからの前記所定画像の位置の検出履歴に基づいて、前記動画像において前記所定画像が動く第1範囲を予測する予測部と、
を備え、
前記生成部は、前記第1範囲の歪みを前記所定以下とさせた前記第2画像を生成する、動画表示装置。
A cutout unit that cuts out a first image that is a part of the moving image and includes a predetermined image from the frame;
A generating unit that generates a second image in which distortion of the predetermined image in the frame is set to be equal to or lower than a predetermined value;
A display control unit that displays a display mode of an area corresponding to the first image in the second image different from other areas;
A detection unit for detecting a position of the predetermined image in the frame;
A prediction unit that predicts a first range in which the predetermined image moves in the moving image based on a detection history of the position of the predetermined image from the frame in which the second image has been displayed;
With
The said production | generation part is a moving image display apparatus which produces | generates the said 2nd image which made distortion of the said 1st range below the said predetermined value .
動画像を構成するフレームから、当該フレーム内の一部でありかつ所定画像を含む第1画像を切り出す切出部と、A cutout unit that cuts out a first image that is a part of the moving image and includes a predetermined image from the frame;
前記フレーム内の前記所定画像の歪みを所定以下とさせた第2画像を生成する生成部と、A generating unit that generates a second image in which distortion of the predetermined image in the frame is set to be equal to or lower than a predetermined value;
前記第2画像における前記第1画像に対応する領域の表示態様を他の領域と異ならせて表示させる表示制御部と、A display control unit that displays a display mode of an area corresponding to the first image in the second image different from other areas;
前記動画像を構成する全ての前記フレーム内における前記所定画像の位置を予め検出する検出部と、A detection unit that detects in advance the position of the predetermined image in all the frames constituting the moving image;
を備え、With
前記生成部は、全ての前記フレーム内における前記所定画像の位置の集合である位置群に基づいて、前記所定画像の動作範囲を決定し、前記動作範囲の歪みを前記所定以下とさせた前記第2画像を生成する、The generation unit determines an operation range of the predetermined image based on a position group that is a set of positions of the predetermined image in all the frames, and the distortion of the operation range is set to the predetermined value or less. Generate two images,
動画表示装置。Movie display device.
前記生成部は、正距円筒図法を用いて、前記フレームをパノラマ展開して前記第2画像を生成する請求項1または2に記載の動画表示装置。 The generating unit uses a equirectangular, moving picture display apparatus according to claim 1 or 2, the frame and panoramic to generate the second image. 動画像を構成するフレームから、当該フレーム内の一部でありかつ所定画像を含む第1画像を切り出すステップと
前記フレーム内の前記所定画像の歪みを所定以下とさせた第2画像を生成するステップと
前記第2画像における前記第1画像に対応する領域の表示態様を他の領域と異ならせて表示させるステップと、
前記フレーム内における前記所定画像の位置を検出するステップと、
前記第2画像を表示済みの前記フレームからの前記所定画像の位置の検出履歴に基づいて、前記動画像において前記所定画像が動く第1範囲を予測するステップと、
を含み、
前記第2画像を生成するステップは、前記第1範囲の歪みを前記所定以下とさせた前記第2画像を生成する、
動画表示方法。
A frame constituting a moving image, comprising the steps of: to cut out the first image including a part at and and a predetermined image in the frame,
Generating a second image in which the distortion of the predetermined image in the frame is less than or equal to a predetermined value;
A step of Ru is displayed the display mode of the area corresponding to the first image in the second image by varying the other regions,
Detecting the position of the predetermined image in the frame;
Predicting a first range in which the predetermined image moves in the moving image based on a detection history of the position of the predetermined image from the frame on which the second image has been displayed;
Including
The step of generating the second image generates the second image in which the distortion of the first range is equal to or less than the predetermined value.
Video display method.
動画像を構成するフレームから、当該フレーム内の一部でありかつ所定画像を含む第1画像を切り出すステップと、Cutting out a first image that is a part of the moving image and includes a predetermined image from the frame;
前記フレーム内の前記所定画像の歪みを所定以下とさせた第2画像を生成するステップと、Generating a second image in which the distortion of the predetermined image in the frame is less than or equal to a predetermined value;
前記第2画像における前記第1画像に対応する領域の表示態様を他の領域と異ならせて表示させるステップと、Displaying a display mode of an area corresponding to the first image in the second image different from other areas;
前記動画像を構成する全ての前記フレーム内における前記所定画像の位置を予め検出するステップと、Detecting in advance the position of the predetermined image in all the frames constituting the moving image;
を含み、Including
前記第2画像を生成するステップは、全ての前記フレーム内における前記所定画像の位置の集合である位置群に基づいて、前記所定画像の動作範囲を決定し、前記動作範囲の歪みを前記所定以下とさせた前記第2画像を生成する、The step of generating the second image determines an operation range of the predetermined image based on a position group that is a set of positions of the predetermined image in all the frames, and distortion of the operation range is less than or equal to the predetermined value. Generating the second image,
動画表示方法。Video display method.
コンピュータを、
動画像を構成するフレームから、当該フレーム内の一部でありかつ所定画像を含む第1画像を切り出す切出部と、
前記フレーム内の前記所定画像の歪みを所定以下とさせた第2画像を生成する生成部と、
前記第2画像における前記第1画像に対応する領域の表示態様を他の領域と異ならせて表示させる表示制御部と、
前記フレーム内における前記所定画像の位置を検出する検出部と、
前記第2画像を表示済みの前記フレームからの前記所定画像の位置の検出履歴に基づいて、前記動画像において前記所定画像が動く第1範囲を予測する予測部と、
として機能させ、
前記生成部は、前記第1範囲の歪みを前記所定以下とさせた前記第2画像を生成する、プログラム。
Computer
A cutout unit that cuts out a first image that is a part of the moving image and includes a predetermined image from the frame;
A generating unit that generates a second image in which distortion of the predetermined image in the frame is set to be equal to or lower than a predetermined value;
A display control unit that displays a display mode of an area corresponding to the first image in the second image different from other areas;
A detection unit for detecting a position of the predetermined image in the frame;
A prediction unit that predicts a first range in which the predetermined image moves in the moving image based on a detection history of the position of the predetermined image from the frame in which the second image has been displayed;
Function as
The said production | generation part is a program which produces | generates the said 2nd image which made distortion of the said 1st range the said predetermined or less .
コンピュータを、Computer
動画像を構成するフレームから、当該フレーム内の一部でありかつ所定画像を含む第1画像を切り出す切出部と、A cutout unit that cuts out a first image that is a part of the moving image and includes a predetermined image from the frame;
前記フレーム内の前記所定画像の歪みを所定以下とさせた第2画像を生成する生成部と、A generating unit that generates a second image in which distortion of the predetermined image in the frame is set to be equal to or lower than a predetermined value;
前記第2画像における前記第1画像に対応する領域の表示態様を他の領域と異ならせて表示させる表示制御部と、A display control unit that displays a display mode of an area corresponding to the first image in the second image different from other areas;
前記動画像を構成する全ての前記フレーム内における前記所定画像の位置を予め検出する検出部と、A detection unit that detects in advance the position of the predetermined image in all the frames constituting the moving image;
として機能させ、Function as
前記生成部は、全ての前記フレーム内における前記所定画像の位置の集合である位置群に基づいて、前記所定画像の動作範囲を決定し、前記動作範囲の歪みを前記所定以下とさせた前記第2画像を生成する、The generation unit determines an operation range of the predetermined image based on a position group that is a set of positions of the predetermined image in all the frames, and the distortion of the operation range is set to the predetermined value or less. Generate two images,
プログラム。program.
JP2015150137A 2015-07-29 2015-07-29 Movie display device, movie display method, and program Active JP6613686B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015150137A JP6613686B2 (en) 2015-07-29 2015-07-29 Movie display device, movie display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015150137A JP6613686B2 (en) 2015-07-29 2015-07-29 Movie display device, movie display method, and program

Publications (2)

Publication Number Publication Date
JP2017034362A JP2017034362A (en) 2017-02-09
JP6613686B2 true JP6613686B2 (en) 2019-12-04

Family

ID=57989413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015150137A Active JP6613686B2 (en) 2015-07-29 2015-07-29 Movie display device, movie display method, and program

Country Status (1)

Country Link
JP (1) JP6613686B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018149234A (en) * 2017-03-15 2018-09-27 公立大学法人広島市立大学 Fixation point estimation system, fixation point estimation method, and fixation point estimation program
JP7472553B2 (en) * 2020-03-09 2024-04-23 株式会社リコー IMAGE PROCESSING SYSTEM, INFORMATION PROCESSING APPARATUS AND METHOD

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256492A (en) * 2000-03-14 2001-09-21 Sanyo Electric Co Ltd Device and method for composing image and computer readable recording medium for recording its program
JP5569329B2 (en) * 2010-10-15 2014-08-13 大日本印刷株式会社 Conference system, monitoring system, image processing apparatus, image processing method, image processing program, etc.
JP5678324B2 (en) * 2011-02-10 2015-03-04 パナソニックIpマネジメント株式会社 Display device, computer program, and display method
JP5887067B2 (en) * 2011-05-20 2016-03-16 東芝テリー株式会社 Omnidirectional image processing system
JP5733088B2 (en) * 2011-08-01 2015-06-10 大日本印刷株式会社 Movie presentation device
JP2013172446A (en) * 2012-02-23 2013-09-02 Sony Corp Information processor, terminal, imaging apparatus, information processing method, and information provision method in imaging apparatus
JP6186775B2 (en) * 2012-05-31 2017-08-30 株式会社リコー Communication terminal, display method, and program

Also Published As

Publication number Publication date
JP2017034362A (en) 2017-02-09

Similar Documents

Publication Publication Date Title
JP6621063B2 (en) Camera selection method and video distribution system
US11887318B2 (en) Object tracking
US8472667B2 (en) Editing apparatus and method
JP5906028B2 (en) Image processing apparatus and image processing method
US9875408B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
US9773192B2 (en) Fast template-based tracking
KR102141290B1 (en) Image processing apparatus, image processing method, image processing program and storage medium
JP2008109552A (en) Imaging device with chasing function
US11328473B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
JP4575829B2 (en) Display screen position analysis device and display screen position analysis program
US20160084932A1 (en) Image processing apparatus, image processing method, image processing system, and storage medium
JP2016212784A (en) Image processing apparatus and image processing method
KR20160094655A (en) The System and Method for Panoramic Video Surveillance with Multiple High-Resolution Video Cameras
US20130170770A1 (en) Method of system for image stabilization through image processing, and zoom camera including image stabilization function
JP6613686B2 (en) Movie display device, movie display method, and program
JP5911227B2 (en) Determination apparatus, determination method, and program
US20140009608A1 (en) System and Method of Video Capture and Search Optimization
JP2006245677A (en) Image processor, image processing method, and image processing program
JP5380336B2 (en) Imaging apparatus, panoramic image synthesis method and program thereof
JP2017184136A5 (en)
JP2017028688A (en) Image managing device, image managing method and program
JP6852878B2 (en) Image processing equipment, image processing program and image processing method
JP6632134B2 (en) Image processing apparatus, image processing method, and computer program
JP2014179740A (en) Video retrieval device, video retrieval system, and video retrieval method
KR101698864B1 (en) Media Being Recorded with the Program Executing Method for Detecting Image Using Metadata

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191021

R151 Written notification of patent or utility model registration

Ref document number: 6613686

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151