[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2013157871A - Information processing device, program, information processing method and regenerating method - Google Patents

Information processing device, program, information processing method and regenerating method Download PDF

Info

Publication number
JP2013157871A
JP2013157871A JP2012018141A JP2012018141A JP2013157871A JP 2013157871 A JP2013157871 A JP 2013157871A JP 2012018141 A JP2012018141 A JP 2012018141A JP 2012018141 A JP2012018141 A JP 2012018141A JP 2013157871 A JP2013157871 A JP 2013157871A
Authority
JP
Japan
Prior art keywords
video data
information
unit
time
reproduction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012018141A
Other languages
Japanese (ja)
Other versions
JP2013157871A5 (en
JP5846940B2 (en
Inventor
Kosuke Yagi
孝介 八木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2012018141A priority Critical patent/JP5846940B2/en
Publication of JP2013157871A publication Critical patent/JP2013157871A/en
Publication of JP2013157871A5 publication Critical patent/JP2013157871A5/ja
Application granted granted Critical
Publication of JP5846940B2 publication Critical patent/JP5846940B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

PROBLEM TO BE SOLVED: To facilitate video retrieval based on an imaging time.SOLUTION: An information processing device 100 includes: an analysis unit 104 for analyzing video data to identify a section in which continuous imaging is performed with one frame rate to identify an imaging time and one of the frame rate and a reproduction time in the section; a conversion information creating unit 107 for creating conversion information including the identified information; a converting unit 103 for converting the video data into digital information having a predetermined format; a program storing unit 108 for storing an imaging time reproduction control program for reproducing video data having a reproduction time corresponding to the imaging time from the digital information by using the conversion information; a data layout unit 109 for generating content data containing the conversion information, the digital information and the imaging time reproduction control program; and a writing unit 110 for writing the content data to a portable storage medium.

Description

本発明は、情報処理装置、プログラム、情報処理方法及び再生方法に関する。   The present invention relates to an information processing apparatus, a program, an information processing method, and a playback method.

以前より、ビル及び公共エリア等を監視するために、監視カメラで撮像された映像データを監視レコーダーに格納する技術がある。現在では、監視レコーダーは、ハードディスク等、本体内に固定された大容量記憶装置に映像データを記録するものが主流となっている(例えば、特許文献1参照)。
撮影された映像データの映像を見る場合には、監視レコーダー本体に接続されたモニターで見るほか、警察への提出用、オーナーや関係会社への報告用として、DVD及びBlu−ray Disc等の光ディスクに映像データを書き込んで、PC及び家庭用ディスクプレーヤー等を使用して映像を見る方法がある。
In the past, there has been a technique for storing video data captured by a surveillance camera in a surveillance recorder in order to monitor buildings and public areas. At present, monitoring recorders mainly record video data in a large-capacity storage device fixed in the main body such as a hard disk (for example, see Patent Document 1).
When viewing the video of the captured video data, in addition to viewing it on a monitor connected to the surveillance recorder body, optical disks such as DVDs and Blu-ray Discs are used for submission to the police and reporting to owners and affiliated companies. There is a method in which video data is written to the PC and the video is viewed using a PC, a home disk player, or the like.

特開2000−125256号公報(段落0027〜0041、図8)JP 2000-125256 A (paragraphs 0027 to 0041, FIG. 8)

しかし、従来の方法では、光ディスクに映像データを書き込み、書き込まれた映像データの映像を見る場合において、不連続な撮影及びフレームレートの変化等に起因して、再生時に撮影時刻に基づいた検索を行うことが困難であった。この点、目撃者の証言との照合、及び、センサー等他の監視装置との記録照合等の場合、撮影時の時刻を元に照合が行われるため、撮影時刻に基づいた検索ができないと、映像として記録されたタイムスタンプを元に利用者が早送り及び巻き戻しを行って、照合箇所を探し出す必要がある。   However, in the conventional method, when video data is written on an optical disc and the video of the written video data is viewed, a search based on the shooting time is performed at the time of playback due to discontinuous shooting, change in frame rate, etc. It was difficult to do. In this regard, in the case of collation with witness testimony, and record collation with other monitoring devices such as sensors, collation is performed based on the time at the time of photographing, so if searching based on the photographing time is not possible, Based on the time stamp recorded as a video, the user needs to fast forward and rewind to find the collation part.

また、同じ時刻の映像を別のカメラで撮影した映像に切り替えたい場合にも、再度、早送り及び巻き戻しを繰り返す必要があり、検索の手間と時間が大きい。   Also, when it is desired to switch the video at the same time to a video taken by another camera, it is necessary to repeat fast-forwarding and rewinding again.

そこで、本発明は、以上のような課題を解決するためのもので、撮影時刻に基づく映像検索を容易に行うことができるようにすることを目的とする。   Therefore, the present invention is to solve the above-described problems, and an object of the present invention is to facilitate video search based on shooting time.

本発明の一態様に係る情報処理装置は、映像データを分析することで、1つのフレームレートで連続して撮影されている区間を特定し、当該区間の撮影時刻と、フレームレート及び再生時間の少なくとも何れか一方とを特定する分析部と、前記分析部により特定された情報を含む換算情報を作成する換算情報作成部と、前記映像データを所定のフォーマットのデジタル情報に変換する変換部と、前記換算情報を用いて、撮影時刻に対応する再生時間の映像データを前記デジタル情報から再生するための撮影時刻再生制御プログラムを格納するプログラム格納部と、前記換算情報、前記デジタル情報及び前記撮影時刻再生制御プログラムを含むコンテンツデータを生成するデータレイアウト部と、前記コンテンツデータを可搬性記憶媒体に書き出す書出部と、を備えることを特徴とする。   The information processing apparatus according to one embodiment of the present invention identifies a section that is continuously captured at one frame rate by analyzing video data, and includes a shooting time, a frame rate, and a playback time of the section. An analysis unit that identifies at least one of them, a conversion information creation unit that creates conversion information including information identified by the analysis unit, a conversion unit that converts the video data into digital information of a predetermined format, A program storage unit for storing a shooting time reproduction control program for reproducing video data of a reproduction time corresponding to the shooting time from the digital information using the conversion information, the conversion information, the digital information, and the shooting time A data layout unit for generating content data including a playback control program, and writing the content data to a portable storage medium And to document output unit, characterized in that it comprises a.

本発明の一態様によれば、撮影時刻に基づく映像検索を容易に行うことができる。   According to one embodiment of the present invention, video search based on shooting time can be easily performed.

実施の形態1〜4におけるオーサリング装置の構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the authoring apparatus in Embodiment 1-4. 実施の形態1における換算情報の一例を示す概略図である。6 is a schematic diagram illustrating an example of conversion information in Embodiment 1. FIG. 実施の形態1において、XMLで記述された換算情報の一例を示す概略図である。In Embodiment 1, it is the schematic which shows an example of the conversion information described by XML. 実施の形態1及び4における再生装置の構成を概略的に示すブロック図である。FIG. 3 is a block diagram schematically showing a configuration of a playback device in the first and fourth embodiments. 実施の形態1において、利用者が撮影時刻を指定した再生指示を入力部に入力した際の処理実行部での処理の概略を示す模式図である。In Embodiment 1, it is a schematic diagram which shows the outline of the process in the process execution part when the user inputs the reproduction | regeneration instruction | indication which designated imaging | photography time to the input part. 実施の形態1において、フレームレートを省略した場合における、XMLで記述した換算情報の一例を示す概略図である。In Embodiment 1, it is the schematic which shows an example of the conversion information described in XML when a frame rate is abbreviate | omitted. 実施の形態1において、利用者が撮影時刻を指定した再生指示を入力部に入力した際の処理実行部での処理の概略を示す模式図である。In Embodiment 1, it is a schematic diagram which shows the outline of the process in the process execution part when the user inputs the reproduction | regeneration instruction | indication which designated imaging | photography time to the input part. 実施の形態1において、利用者が、3つのカメラの映像を切り替えた際の撮影時刻を示す概略図である。In Embodiment 1, it is the schematic which shows the imaging | photography time when a user switches the image | video of three cameras. 実施の形態1において、利用者が、3つのカメラの映像を切り替えた際の再生時間を示す概略図である。In Embodiment 1, it is the schematic which shows the reproduction time when a user switches the image | video of three cameras. 実施の形態1における処理実行部が行う処理を説明するための概略図である。6 is a schematic diagram for explaining processing performed by a processing execution unit according to Embodiment 1. FIG. 実施の形態2における4分割の分割画面の一例を示す概略図である。10 is a schematic diagram illustrating an example of a four-divided divided screen in Embodiment 2. FIG. 実施の形態2における9分割の分割画面の一例を示す概略図である。10 is a schematic diagram illustrating an example of a nine-divided divided screen according to Embodiment 2. FIG.

実施の形態1.
図1は、実施の形態1における情報処理装置としてのオーサリング装置100の構成を概略的に示すブロック図である。オーサリング装置100は、条件入力部101と、映像データ抽出部102と、変換部103と、分析部104と、換算情報作成部107と、プログラム格納部108と、データレイアウト部109と、書出部110とを備える。図1の括弧内の符号は、実施の形態4における構成を示している。
Embodiment 1 FIG.
FIG. 1 is a block diagram schematically showing a configuration of an authoring apparatus 100 as an information processing apparatus in the first embodiment. The authoring apparatus 100 includes a condition input unit 101, a video data extraction unit 102, a conversion unit 103, an analysis unit 104, a conversion information creation unit 107, a program storage unit 108, a data layout unit 109, and a writing unit. 110. Reference numerals in parentheses in FIG. 1 indicate configurations in the fourth embodiment.

条件入力部101は、操作者130より、取り出したい映像データの条件の入力を受け付ける。例えば、入力を受け付ける条件は、撮像装置としてのカメラのカメラ名、撮影時間及び撮影時刻等である。
映像データ抽出部102は、条件入力部101が入力を受け付けた条件に従って、映像データを記憶している映像データ記憶部としての監視映像データベース131から映像データを取り出す。ここで、本発明では、カメラを備えた監視レコーダーで撮影された映像データが監視映像データベース131に記憶されているものとする。監視レコーダーは、タイマーとセンサーからの入力によって、撮影の開始及び終了、また、フレームレート等を細かく制御している。そして、監視映像データベース131に記憶されている映像データには、1フレーム毎に撮影時刻の情報がメタデータとして付加されているものとする。
変換部103は、映像データ抽出部102で取り出された映像データを所定のフォーマットに変換することで、デジタル情報を生成する。ここで、所定のフォーマットは、書出部110が書き出すコンテンツの規格に従ったフォーマットとする。
The condition input unit 101 receives an input of video data conditions to be extracted from the operator 130. For example, the conditions for receiving an input are a camera name, a shooting time, a shooting time, and the like of a camera as an imaging device.
The video data extraction unit 102 extracts video data from a monitoring video database 131 serving as a video data storage unit that stores video data, in accordance with a condition that the condition input unit 101 has received an input. Here, in the present invention, it is assumed that video data captured by a monitoring recorder equipped with a camera is stored in the monitoring video database 131. The surveillance recorder finely controls the start and end of photographing, the frame rate, and the like by input from a timer and a sensor. Then, it is assumed that the video data stored in the monitoring video database 131 is added with shooting time information as metadata for each frame.
The conversion unit 103 generates digital information by converting the video data extracted by the video data extraction unit 102 into a predetermined format. Here, the predetermined format is a format in accordance with the standard of the content written out by the writing unit 110.

分析部104は、映像データ抽出部102で取り出された映像データを分析することで、一定のフレームレートで連続して撮影されている区間の撮影時刻、フレームレート及び再生時間を特定する。分析部104は、フレームレート判別部105と、連続区間判別部106とを備える。
フレームレート判別部105は、映像データのメタデータに含まれている1フレーム毎の撮影時刻を検出して、フレームの撮影間隔を算出することで、フレームレートを算出する。フレームレートが映像と共に記録されている場合には、この値を取り出して使用する。
連続区間判別部106は、映像データ抽出部102で取り出された映像データから、1つのフレームレートで映像が連続して撮影されている区間である映像連続区間を判別して、この映像連続区間の撮影時刻及び再生時間を特定する。例えば、映像データの内、撮影間隔が一定の区間は、同一の映像連続区間と見なせる。そこで、連続区間判別部106は、映像のフレームが所定期間以上途切れている部分及びフレームレートが変化した部分を映像連続区間の切れ目とする。そして、連続区間判別部106は、各映像連続区間における撮影時刻の開始点及び終了点、並びに、再生時間の開始点及び終了点を特定する。
The analysis unit 104 analyzes the video data extracted by the video data extraction unit 102, thereby specifying the shooting time, the frame rate, and the playback time of a section continuously shot at a constant frame rate. The analysis unit 104 includes a frame rate determination unit 105 and a continuous section determination unit 106.
The frame rate determination unit 105 calculates the frame rate by detecting the shooting time for each frame included in the metadata of the video data and calculating the frame shooting interval. If the frame rate is recorded with the video, this value is taken out and used.
The continuous section discriminating unit 106 discriminates a video continuous section that is a section in which video is continuously shot at one frame rate from the video data extracted by the video data extracting unit 102, and determines the video continuous section. Specify the shooting time and playback time. For example, sections in the video data where the shooting interval is constant can be regarded as the same video continuous section. Therefore, the continuous section determination unit 106 sets a portion where the frame of the video is interrupted for a predetermined period or a portion where the frame rate is changed as a break of the video continuous section. Then, the continuous segment determination unit 106 specifies the start point and end point of the shooting time and the start point and end point of the reproduction time in each video continuous segment.

換算情報作成部107は、条件入力部101が入力を受け付けた条件と、分析部104が分析した分析結果とに基づいて、撮影時刻と、フレームレート及び再生時間の少なくとも何れか一方の情報とを含む換算情報を作成する。図2は、換算情報140の一例を示す概略図である。換算情報140は、カメラ欄140aと、映像連続区間欄140bと、撮影開始時刻欄140cと、撮影終了時刻欄140dと、フレームレート欄140eと、再生開始時間欄140fと、再生終了時間欄140gとを有するテーブル形式の情報である。
カメラ欄140aは、映像データ抽出部102で取り出された映像データを撮影した各々のカメラを識別するためのカメラ識別情報を格納する。
映像連続区間欄140bは、カメラ欄140aで識別されるカメラで撮影された映像データの各々の連続映像区間を識別するための区間識別情報を格納する。
撮影開始時刻欄140cは、映像連続区間欄140bで識別される映像連続区間の撮影開始時刻を格納する。
撮影終了時刻欄140dは、映像連続区間欄140bで識別される映像連続区間の撮影終了時刻を格納する。
フレームレート欄140eは、映像連続区間欄140bで識別される映像連続区間における撮影時のフレームレートを格納する。
再生開始時間欄140fは、映像連続区間欄140bで識別される映像連続区間の映像データを再生する際の再生開始時間を格納する。
再生終了時間欄140gは、映像連続区間欄140bで識別される映像連続区間の映像データを再生する際の再生終了時間を格納する。
The conversion information creation unit 107 calculates the shooting time and / or information on at least one of the frame rate and the reproduction time based on the condition received by the condition input unit 101 and the analysis result analyzed by the analysis unit 104. Create conversion information including. FIG. 2 is a schematic diagram illustrating an example of the conversion information 140. The conversion information 140 includes a camera column 140a, a video continuous section column 140b, a shooting start time column 140c, a shooting end time column 140d, a frame rate column 140e, a playback start time column 140f, and a playback end time column 140g. Information in a table format.
The camera column 140a stores camera identification information for identifying each camera that captured the video data extracted by the video data extraction unit 102.
The video continuous section column 140b stores section identification information for identifying each continuous video section of video data captured by the camera identified by the camera column 140a.
The shooting start time column 140c stores the shooting start time of the video continuous section identified by the video continuous section column 140b.
The shooting end time column 140d stores the shooting end time of the video continuous section identified by the video continuous section column 140b.
The frame rate column 140e stores the frame rate at the time of shooting in the video continuous section identified by the video continuous section column 140b.
The reproduction start time column 140f stores a reproduction start time when reproducing the video data of the video continuous section identified by the video continuous section column 140b.
The reproduction end time column 140g stores the reproduction end time when reproducing the video data of the video continuous section identified by the video continuous section column 140b.

なお、通常、プログラムでデータを扱う場合には、プログラムで扱いやすいフォーマットに変換して使う場合が多い。ここで、図3は、換算情報の一例であるXMLで記述された換算情報140#1を示す概略図である。   Normally, when handling data in a program, it is often used after being converted into a format that can be handled easily by the program. Here, FIG. 3 is a schematic diagram showing conversion information 140 # 1 described in XML which is an example of conversion information.

プログラム格納部108は、換算情報140を用いて、撮影時刻に対応する再生時間の映像データをデジタル情報から再生するための撮影時刻再生制御プログラムを格納する。ここで、光ディスク等の可搬性記憶媒体に書き出されたデータは、例えば、家庭用プレーヤー等で再生される。Blu−ray DiscではBD−Jと呼ばれるJava(登録商標)実行環境が用意されており、高度な機能を実現可能である。ここでの撮影時刻再生制御プログラムは、例えば、BD−Jにおいて実行されるプログラムであることを想定している。   Using the conversion information 140, the program storage unit 108 stores a shooting time playback control program for playing back video data having a playback time corresponding to the shooting time from digital information. Here, the data written on the portable storage medium such as an optical disk is reproduced by, for example, a home player. In Blu-ray Disc, a Java (registered trademark) execution environment called BD-J is prepared, and advanced functions can be realized. Here, it is assumed that the shooting time reproduction control program is a program executed in the BD-J, for example.

データレイアウト部109は、変換部103で生成されたデジタル情報と、換算情報作成部107で生成された換算情報140と、プログラム格納部108に記憶されている撮影時刻再生制御プログラムとを組み合わせて、書出部110で書き出されるコンテンツの規格に従ってレイアウトするとともに、必要なメタデータを追加することで整合性を取り、コンテンツデータを生成する。
書出部110は、データレイアウト部109で生成されたコンテンツデータを光ディスク132等の可搬性記憶媒体に書き出す。従って、可搬性記憶媒体には、撮影された映像データを再生するためのデジタル情報と、このデジタル情報において、1つのフレームレートで連続して撮影されている区間の撮影時刻、並びに、フレームレート及び再生時間の少なくとも何れか一方の情報を含む換算情報と、撮影時刻に対応する再生時間の映像データをデジタル情報から再生するための撮影時刻再生制御プログラムとを含むコンテンツデータが記憶される。
The data layout unit 109 combines the digital information generated by the conversion unit 103, the conversion information 140 generated by the conversion information creation unit 107, and the shooting time reproduction control program stored in the program storage unit 108. In addition to laying out according to the content standard written out by the writing unit 110, consistency is obtained by adding necessary metadata, and content data is generated.
The writing unit 110 writes the content data generated by the data layout unit 109 to a portable storage medium such as the optical disk 132. Therefore, in the portable storage medium, digital information for reproducing the captured video data, a shooting time of a section continuously shot at one frame rate in this digital information, a frame rate and Content data including conversion information including at least one information of the reproduction time and a photographing time reproduction control program for reproducing the video data of the reproduction time corresponding to the photographing time from the digital information is stored.

以上に記載されたオーサリング装置100は、例えば、CPU(Central Processing Unit)と、メモリと、HDD(Hard Disk Drive)等の外部記憶装置と、BD(Blu−ray Disk:登録商標)及びDVD(Digital Versatile Disk)等の可搬性記憶媒体に対して情報を読み書きする読取/書込装置と、キーボード及びマウス等の入力装置と、ディスプレイ等の出力装置と、通信ネットワークに接続するためのNIC(Network Interface Card)等の通信装置と、を備えた一般的なコンピュータで実現できる。
例えば、プログラム格納部108は、CPUがメモリ又は外部記憶装置を利用することにより実現でき、映像データ抽出部102、変換部103、分析部104、換算情報作成部107及びデータレイアウト部109は、外部記憶装置に記憶されている所定のプログラムをメモリにロードしてCPUで実行することで実現でき、条件入力部101は、CPUが入力装置を利用することで実現できる。なお、監視映像データベース131は、CPUがメモリ又は外部記憶装置を利用することにより実現してもよく、また、CPUが通信装置その他のインターフェースを利用して、外部の監視映像データベース131に接続してもよい。書出部110は、CPU901が読取/書込装置を利用することで実現できる。
この所定のプログラムは、読取/書込装置を介して記憶媒体から、あるいは、通信装置を介してネットワークから、外部記憶装置にダウンロードされ、それから、メモリ上にロードされてCPUにより実行されるようにしてもよい。また、読取/書込装置を介して記憶媒体から、あるいは、通信装置を介してネットワークから、メモリ上に直接ロードされ、CPUにより実行されるようにしてもよい。
The authoring apparatus 100 described above includes, for example, a CPU (Central Processing Unit), a memory, an external storage device such as an HDD (Hard Disk Drive), a BD (Blu-ray Disk: registered trademark), and a DVD (Digital). A reading / writing device for reading and writing information from / to a portable storage medium such as Versatile Disk, an input device such as a keyboard and a mouse, an output device such as a display, and a NIC (Network Interface) for connection to a communication network And a communication device such as Card).
For example, the program storage unit 108 can be realized by the CPU using a memory or an external storage device. The video data extraction unit 102, the conversion unit 103, the analysis unit 104, the conversion information creation unit 107, and the data layout unit 109 This can be realized by loading a predetermined program stored in the storage device into the memory and executing it by the CPU, and the condition input unit 101 can be realized by the CPU using the input device. The monitoring video database 131 may be realized by the CPU using a memory or an external storage device, and the CPU is connected to the external monitoring video database 131 using a communication device or other interface. Also good. The writing unit 110 can be realized by the CPU 901 using a reading / writing device.
The predetermined program is downloaded from the storage medium via the read / write device or from the network via the communication device to the external storage device, and then loaded onto the memory and executed by the CPU. May be. Alternatively, the program may be loaded directly from the storage medium via the reading / writing device or from the network via the communication device onto the memory and executed by the CPU.

図4は、実施の形態1における再生装置150の構成を概略的に示すブロック図である。再生装置150は、入力部151と、UI制御部152と、読取部153と、処理実行部154と、再生処理部155とを備える。図4の括弧内の符号は、実施の形態4における構成を示している。   FIG. 4 is a block diagram schematically showing the configuration of the playback device 150 in the first embodiment. The playback device 150 includes an input unit 151, a UI control unit 152, a reading unit 153, a process execution unit 154, and a playback processing unit 155. Reference numerals in parentheses in FIG. 4 indicate configurations in the fourth embodiment.

入力部151は、利用者による操作の入力を受け付ける。例えば、入力部151は、リモートコントローラ及び操作ボタン等により構成することができる。
UI制御部152は、入力部151を制御して、利用者からの操作に応じた指示を再生装置150の各部に与える。
読取部153は、光ディスク等の可搬性記憶媒体からコンテンツデータを読み取る。
処理実行部154は、読取部153で読み取られたコンテンツデータに含まれている撮影時刻再生制御プログラムを実行して、撮影時刻再生制御を行う。なお、処理実行部154は、例えば、BD−Jの実行環境を提供する。
The input unit 151 receives an operation input by a user. For example, the input unit 151 can be configured with a remote controller, operation buttons, and the like.
The UI control unit 152 controls the input unit 151 to give an instruction corresponding to an operation from the user to each unit of the playback device 150.
The reading unit 153 reads content data from a portable storage medium such as an optical disk.
The process execution unit 154 executes a shooting time reproduction control program included in the content data read by the reading unit 153 to perform shooting time reproduction control. Note that the process execution unit 154 provides, for example, a BD-J execution environment.

再生処理部155は、処理実行部154からの指示に応じて、読取部153で読み取られたコンテンツデータに含まれているデジタル情報及びメタデータに基づいて、映像データを再生する処理を行う。再生処理部155は、再生制御部156と、プレゼンテーション制御部157と、デコーダ部158と、画面合成部159とを備える。
再生制御部156は、読取部153で読み取られたコンテンツデータに含まれているデジタル情報及びメタデータに基づいて、映像データを再生する処理を制御する。
プレゼンテーション制御部157は、コンテンツデータに含まれているメタデータ等に基づいて、文字情報及びユーザインタフェイス等の画像データを生成する。
デコーダ部158は、読取部153で読み取られたコンテンツデータに含まれているデジタル情報をデコードすることにより、映像データを生成する。
画面合成部159は、デコーダ部158で生成された映像データの映像と、プレゼンテーション制御部157で生成された画像データの画像とを合成することにより、画面情報を生成し、生成した画面情報を表示部170に出力する。表示部170は、入力された画面情報に基づいて、画面を表示する。
The reproduction processing unit 155 performs processing for reproducing video data based on digital information and metadata included in the content data read by the reading unit 153 in response to an instruction from the processing execution unit 154. The reproduction processing unit 155 includes a reproduction control unit 156, a presentation control unit 157, a decoder unit 158, and a screen synthesis unit 159.
The reproduction control unit 156 controls processing for reproducing video data based on digital information and metadata included in the content data read by the reading unit 153.
The presentation control unit 157 generates image data such as character information and a user interface based on metadata or the like included in the content data.
The decoder unit 158 generates video data by decoding the digital information included in the content data read by the reading unit 153.
The screen combining unit 159 generates screen information by combining the video data generated by the decoder unit 158 and the image data generated by the presentation control unit 157, and displays the generated screen information. Output to the unit 170. The display unit 170 displays a screen based on the input screen information.

以上に記載された再生装置150は、例えば、CPUと、メモリと、HDD等の外部記憶装置と、CD及びDVD等の可搬性記憶媒体に対して情報を読み書きする読取/書込装置と、キーボード及びマウス等の入力装置と、ディスプレイ等の出力装置とを備えた一般的なコンピュータで実現できる。
例えば、UI制御部152、処理実行部154及び再生処理部155は、外部記憶装置及び可搬性記憶媒体に記憶されている所定のプログラムをメモリにロードしてCPUで実行することで実現でき、入力部151は、CPUが入力装置を利用することで実現でき、表示部170は、CPUが出力装置を利用することで実現でき、読取部153は、CPUが読取/書込装置を利用することで実現できる。
この所定のプログラムは、読取/書込装置を介して記憶媒体から、あるいは、通信装置を介してネットワークから、外部記憶装置にダウンロードされ、それから、メモリ上にロードされてCPUにより実行されるようにしてもよい。また、読取/書込装置を介して可搬性記憶媒体から、あるいは、通信装置を介してネットワークから、メモリ上に直接ロードされ、CPUにより実行されるようにしてもよい。
The playback device 150 described above includes, for example, a CPU, a memory, an external storage device such as an HDD, a read / write device that reads and writes information from and on a portable storage medium such as a CD and a DVD, and a keyboard. And a general computer including an input device such as a mouse and an output device such as a display.
For example, the UI control unit 152, the processing execution unit 154, and the reproduction processing unit 155 can be realized by loading a predetermined program stored in an external storage device and a portable storage medium into a memory and executing it by the CPU. The unit 151 can be realized by using the input device by the CPU, the display unit 170 can be realized by using the output device by the CPU, and the reading unit 153 can be realized by using the reading / writing device by the CPU. realizable.
The predetermined program is downloaded from the storage medium via the read / write device or from the network via the communication device to the external storage device, and then loaded onto the memory and executed by the CPU. May be. Alternatively, the program may be directly loaded onto a memory from a portable storage medium via a reading / writing device or from a network via a communication device and executed by a CPU.

以下では、再生装置150の処理実行部154が行う撮影時刻再生制御を説明する。
図5は、利用者が撮影時刻を指定した再生指示を入力部151に入力した際の処理実行部154での処理の概略を示す模式図である。図5は、撮影時間が不連続な場合を示している。また、図5では、撮影時のフレームレートは、常に一定で、再生時のフレームレートと同じであるとする。
Hereinafter, shooting time reproduction control performed by the processing execution unit 154 of the reproduction apparatus 150 will be described.
FIG. 5 is a schematic diagram showing an outline of processing in the processing execution unit 154 when the user inputs a reproduction instruction specifying the shooting time to the input unit 151. FIG. 5 shows a case where the photographing time is discontinuous. In FIG. 5, it is assumed that the frame rate at the time of shooting is always constant and is the same as the frame rate at the time of reproduction.

図5に示されているように、1つ目の映像連続区間は、時刻Aの4時20分から時刻Bの4時55分までの35分間である。この区間は、再生時には時間aの先頭である0分(0:00)から時間bの35分(0:35)までの映像となる。
2つ目の映像連続区間は、時刻Cの5時25分から時刻Dの5時55分である。この区間は、再生時には時間bの35分(0:35)から時間cの1時間5分(1:05)までの映像となる。
As shown in FIG. 5, the first video continuous section is 35 minutes from 4:20 at time A to 4:55 at time B. This section becomes a video from 0 minute (0:00) which is the head of time a to 35 minutes (0:35) of time b at the time of reproduction.
The second video continuous period is from 5:25 at time C to 5:55 at time D. This section becomes a video from 35 minutes (0:35) at time b to 1 hour 5 minutes (1:05) at time c during reproduction.

図5に示されている例では、1つ目の映像連続区間では、時刻Aが撮影開始時刻、時刻Bが撮影終了時刻、時間aが再生開始時間、時間bが再生終了時間として、換算情報に格納されている。また、2つ目の映像連続区間では、時刻Cが撮影開始時刻、時刻Dが撮影終了時刻、時間bが再生開始時間、時間cが再生終了時間として、換算情報に格納されている。フレームレートは、例えば、再生時と同様の30msとなっている。   In the example shown in FIG. 5, in the first video continuous section, time A is the shooting start time, time B is the shooting end time, time a is the playback start time, and time b is the playback end time. Stored in In the second video continuous section, time C is stored in the conversion information as shooting start time, time D is shooting end time, time b is playback start time, and time c is playback end time. The frame rate is, for example, 30 ms, which is the same as that during reproduction.

利用者がこの映像の再生中に撮影時刻の5時30分から再生したいと考えた場合、利用者は、入力部151を介して、5時30分から再生するように操作を入力する。このような操作の入力を受けたUI制御部152は、処理実行部154に、5時30分から再生する指示を与える。このような指示を受けた処理実行部154は、換算情報140を参照して、撮影時刻の5時30分は、2つ目の映像連続区間の先頭から5分の位置であることを算出し、再生時には2つ目の映像連続区間の先頭から5分、すなわち全体の先頭から40分の位置であることを算出する。そして、処理実行部154は、先頭から40分の位置を再生するように再生制御部156に指示を出す。
このような指示を受けた再生制御部156は、先頭から40分の位置に対応するデジタル情報を読取部153に読み取らせて、読み取られたデジタル情報をデコーダ部158に与える。
以上のように、本実施の形態では、撮影時の時刻を用いた検索が可能となる。
If the user wants to start playback from 5:30 of the shooting time during playback of this video, the user inputs an operation to start playback from 5:30 via the input unit 151. Upon receiving such an operation input, the UI control unit 152 gives an instruction to reproduce from 5:30 to the process execution unit 154. Upon receiving such an instruction, the process execution unit 154 refers to the conversion information 140 and calculates that the shooting time 5:30 is a position 5 minutes from the beginning of the second video continuous section. At the time of reproduction, it is calculated that the position is 5 minutes from the head of the second video continuous section, that is, 40 minutes from the head of the whole. Then, the process execution unit 154 instructs the reproduction control unit 156 to reproduce the position for 40 minutes from the beginning.
Receiving such an instruction, the reproduction control unit 156 causes the reading unit 153 to read the digital information corresponding to the position of 40 minutes from the beginning, and gives the read digital information to the decoder unit 158.
As described above, in this embodiment, it is possible to perform a search using the time at the time of shooting.

なお、図5に示されている例のように、カメラの変更がない場合には、図2に示されている換算情報140において、カメラ欄140aを設ける必要はない。また、フレームレートについても変更がない場合には、図2に示されている換算情報140において、フレームレート欄140eは省略可能である。なお、図6は、フレームレートを省略した場合における換算情報の一例である、XMLで記述された換算情報140#2を示す概略図である。   If there is no camera change as in the example shown in FIG. 5, it is not necessary to provide the camera column 140a in the conversion information 140 shown in FIG. If the frame rate is not changed, the frame rate column 140e can be omitted in the conversion information 140 shown in FIG. FIG. 6 is a schematic diagram showing conversion information 140 # 2 described in XML, which is an example of conversion information when the frame rate is omitted.

実施の形態2.
次に、撮影時にフレームレートが異なる区間が存在する場合を説明する。ここで再生時フレームレートは30fpsとする。
実施の形態2におけるオーサリング装置100及び再生装置150は、実施の形態1と同様に構成されている。
Embodiment 2. FIG.
Next, a case where there are sections with different frame rates during shooting will be described. Here, the playback frame rate is 30 fps.
The authoring device 100 and the playback device 150 in the second embodiment are configured in the same manner as in the first embodiment.

図7は、利用者が撮影時刻を指定した再生指示を入力部151に入力した際の処理実行部154での処理の概略を示す模式図である。
図7の例では、1つ目の映像連続区間は、撮影開始時刻が時刻Aの1時10分0秒であり、撮影終了時刻が時刻Bの1時40分0秒であり、この30分間は、30fpsで撮影されている。そして、1つ目の映像連続区間は、再生時には、再生開始時間である時間aの0分0秒から、再生終了時間である時間bの30分0秒までの30分間の映像となる。
2つ目の映像連続区間は、撮影開始時刻が時刻Bの1時40分0秒であり、撮影終了時刻が時刻Cの5時40分0秒であり、この4時間は、1fpsで撮影されている。そして、2つ目の映像連続区間は、再生時には、再生開始時間である時間bの30分0秒から、再生終了時間である時間cの38分0秒までの8分間の映像となる。この区間では1fpsで撮影された映像を、30fpsで再生するので、再生時間は撮影時間の30分の1になっている。
A−Bの区間と、B−Cの区間とは、時間的には連続しているが、フレームレートが異なるため別の映像連続区間になっている。
FIG. 7 is a schematic diagram showing an outline of processing in the processing execution unit 154 when a user inputs a reproduction instruction specifying a shooting time to the input unit 151.
In the example of FIG. 7, in the first video continuous section, the shooting start time is 1: 10: 0 of time A, and the shooting end time is 1: 40: 0 of time B, which is 30 minutes. Is taken at 30 fps. The first video continuous section is a 30-minute video from 0 minute 0 seconds as the playback start time to 30 minutes 0 seconds as the playback end time during playback.
In the second video continuous section, the shooting start time is 1: 40: 00: 00 of time B, the shooting end time is 5: 40: 0 of time C, and these 4 hours are shot at 1 fps. ing. Then, the second video continuous section is an 8-minute video from playback time 30 minutes 0 seconds to playback end time 38 minutes 0 seconds during playback. In this section, video shot at 1 fps is played back at 30 fps, so the playback time is 1 / 30th of the shooting time.
The AB section and the BC section are continuous in time, but are different video continuous sections because of different frame rates.

利用者がこの映像の再生中に撮影時刻の3時40分から再生したいと考えた場合、利用者は、入力部151を介して、3時40分から再生するように操作を入力する。このような操作の入力を受けたUI制御部152は、処理実行部154に、3時40分から再生する指示を与える。このような指示を受けた処理実行部154は、換算情報140を参照して、撮影時刻の3時40分は、2つ目の映像連続区間の先頭から2時間0分後の時刻であることを特定する。そして、この2つ目の映像連続区間の先頭から2時間は、再生時間にすると、下記の(1)式より、4分となる。
2時間×(時間c−時間b)÷(時刻C−時刻B) ・・・(1)
処理実行部154は、2つ目の映像連続区間における再生開始時間が時間bの30分0秒であるため、34分を、撮影時刻3時40分に対応した再生時間として特定する。そして、処理実行部154は、先頭から34分の位置を再生するように再生制御部156に指示を出す。
このような指示を受けた再生制御部156は、先頭から34分の位置に対応するデジタル情報を読取部153に読み取らせて、読み取られたデジタル情報をデコーダ部158に与える。
このようにして、実施の形態2においては、フレームレートが異なっていても、撮影時の時刻を用いた検索が可能となる。
If the user wants to start playback from 3:40 of the shooting time during playback of this video, the user inputs an operation to start playback from 3:40 via the input unit 151. Upon receiving such an operation input, the UI control unit 152 gives an instruction to play back from 3:40 to the process execution unit 154. Upon receiving such an instruction, the process execution unit 154 refers to the conversion information 140, and the shooting time of 3:40 is 2 hours and 0 minutes after the beginning of the second video continuous section. Is identified. Then, the 2 hours from the beginning of the second video continuous section is 4 minutes according to the following equation (1) when the playback time is set.
2 hours × (time c−time b) ÷ (time C−time B) (1)
Since the playback start time in the second video continuous section is 30 minutes 0 seconds of time b, the process execution unit 154 specifies 34 minutes as the playback time corresponding to the shooting time of 3:40. Then, the process execution unit 154 instructs the reproduction control unit 156 to reproduce the position 34 minutes from the beginning.
Receiving such an instruction, the reproduction control unit 156 causes the reading unit 153 to read the digital information corresponding to the position 34 minutes from the beginning, and gives the read digital information to the decoder unit 158.
In this way, in the second embodiment, it is possible to perform a search using the time at the time of shooting even if the frame rates are different.

なお、実施の形態2における、利用者から指示された撮影時刻に対応する再生時間の算出は、例えば、下記の(2)式により行うことができる。

Figure 2013157871
ここで、tは、利用者から指示された撮影時刻に対応する再生時間である。Tは、利用者から指示された撮影時刻である。tisは、利用者から指示された撮影時刻が含まれる映像連続区間の再生開始時間である。tieは、利用者から指示された撮影時刻が含まれる映像連続区間の再生終了時間である。Tisは、利用者から指示された撮影時刻が含まれる映像連続区間の撮影開始時刻である。Tieは、利用者から指示された撮影時刻が含まれる映像連続区間の撮影終了時刻である。
また、利用者から指示された撮影時刻が含まれる映像連続区間の撮影時のフレームレートをF、再生時のフレームレートをfとすると、実施の形態2における、利用者から指示された撮影時刻に対応する再生時間の算出は、例えば、下記の(3)式により行うこともできる。
Figure 2013157871
In the second embodiment, the reproduction time corresponding to the photographing time instructed by the user can be calculated by the following equation (2), for example.
Figure 2013157871
Here, t is a reproduction time corresponding to the photographing time instructed by the user. Tu is the shooting time instructed by the user. tis is the playback start time of the video continuous section including the shooting time instructed by the user. “ tie” is a reproduction end time of the video continuous section including the photographing time instructed by the user. Tis is the shooting start time of the video continuous section including the shooting time instructed by the user. Tie is the shooting end time of the video continuous section including the shooting time instructed by the user.
Further, assuming that the frame rate at the time of shooting in the video continuous section including the shooting time instructed by the user is F i and the frame rate at the time of reproduction is f, the shooting time instructed by the user in the second embodiment. The reproduction time corresponding to can also be calculated by the following equation (3), for example.
Figure 2013157871

フレームレートについては、撮影時刻と再生時間とから算出することができるため、図2に示されている換算情報140において、フレームレート欄140eは省略可能である。また、再生時間についても、撮影時刻とフレームレートとから算出することができるため、図2に示されている換算情報140において、再生開始時間欄140f及び再生終了時間欄140gの何れか一方は省略可能である。   Since the frame rate can be calculated from the shooting time and the reproduction time, the frame rate column 140e can be omitted in the conversion information 140 shown in FIG. Further, since the playback time can also be calculated from the shooting time and the frame rate, in the conversion information 140 shown in FIG. 2, one of the playback start time column 140f and the playback end time column 140g is omitted. Is possible.

実施の形態3.
次に複数のカメラで撮影された映像データの映像を同じ時刻で切り替える場合を説明する。
実施の形態3におけるオーサリング装置100及び再生装置150は、実施の形態1と同様に構成されている。
Embodiment 3 FIG.
Next, a case will be described in which videos of video data shot by a plurality of cameras are switched at the same time.
The authoring device 100 and the playback device 150 in the third embodiment are configured in the same manner as in the first embodiment.

図8〜10は、利用者が入力部151を介して、映像の再生中にカメラを切り替える操作を入力した場合の処理実行部154での処理の概略を示す模式図である。図8〜10は、3つの監視カメラの映像を切り替えながら再生する例を示している。   FIGS. 8 to 10 are schematic diagrams illustrating an outline of processing in the processing execution unit 154 when the user inputs an operation of switching cameras during video playback via the input unit 151. 8 to 10 show an example in which the images of the three surveillance cameras are reproduced while being switched.

図8は、利用者が、Ch1、Ch2、Ch3の3つのカメラの映像を切り替えた際の撮影時刻を示す概略図である。それぞれのカメラは、時間及びセンサーに応じて動作モードが変化している。図8に示されている例では、利用者の操作により、6時0分にCh1のカメラの映像がCh2のカメラの映像に切り替えられ(切替A)、7時30分にCh2のカメラの映像がCh1のカメラの映像に切り替えられ(切替B)、さらに、23時0分にCh1のカメラの映像がCh3のカメラの映像に切り替えられる(切替C)。   FIG. 8 is a schematic diagram showing the shooting time when the user switches the images of the three cameras Ch1, Ch2, and Ch3. Each camera changes its operation mode according to time and sensor. In the example shown in FIG. 8, the video of the Ch1 camera is switched to the video of the Ch2 camera at 6:00:00 (switch A) and the video of the Ch2 camera at 7:30 by the user's operation. Is switched to the video of the camera of Ch1 (switch B), and the video of the camera of Ch1 is switched to the video of the camera of Ch3 at 23:00:00 (switch C).

図9は、利用者が、Ch1、Ch2、Ch3の3つのカメラの映像を切り替えた際の再生時間を示す概略図である。フレームレートの変化や撮影休止時間等の影響で、撮影時刻とは簡単には対応が取りにくい形になっている。例えば、図8の切替Aは、Ch1の再生時間が12分、及び、Ch2の再生時間が1時間40分で行われている。切替Bは、Ch2の再生時間が2時間0分、及び、Ch1の再生時間が44分で行われている。切替Cは、Ch1の再生時間が10時間27分、及び、Ch3の再生時間が15分で行われている。   FIG. 9 is a schematic diagram showing the playback time when the user switches the images of the three cameras Ch1, Ch2, and Ch3. Due to changes in frame rate, shooting pause time, etc., it is difficult to easily correspond to shooting time. For example, in the switching A in FIG. 8, the reproduction time of Ch1 is 12 minutes and the reproduction time of Ch2 is 1 hour 40 minutes. In the switching B, the playback time of Ch2 is 2 hours and 0 minutes, and the playback time of Ch1 is 44 minutes. In the switching C, the reproduction time of Ch1 is 10 hours and 27 minutes, and the reproduction time of Ch3 is 15 minutes.

次に、以上のような切替A〜Cを、処理実行部154がどのように処理するのかを図10を用いて説明する。
利用者が、Ch1のカメラの映像の再生時間12分に、Ch2のカメラの映像に切り替える操作を行った場合には、処理実行部154は、換算情報140を参照して、Ch1のカメラの映像の再生時間12分が、撮影時刻6時0分に対応することを算出する。これは、例えば、下記の(4)式又は(5)式で算出することができる。

Figure 2013157871
Figure 2013157871
ここで、Tは、利用者が切り替えを行った再生時間に対応する撮影時刻である。tは、利用者が切り替えを行った再生時間である。
次に、処理実行部154は、(4)式又は(5)式で算出された撮影時刻に対応する、切替先のカメラの映像における再生時間を、上記の(2)式又は(3)式で算出する。ここでは、(4)式又は(5)式で算出された撮影時刻がTとなる。換算情報140により、撮影時刻6時0分は、Ch2における再生時間1時間40分に対応する。このため、処理実行部154は、Ch2の映像データの先頭から1時間40分の位置を再生するように再生制御部156に指示を出す。
同様に、利用者が、Ch2のカメラの映像の再生時間2時間0分に、Ch1のカメラの映像に切り替える操作を行った場合には、処理実行部154は、換算情報140を参照して、Ch2のカメラの映像の再生時間2時間0分が、撮影時刻7時30分に対応することを算出する。そして、処理実行部154は、換算情報140を参照することにより、撮影時刻7時30分は、Ch1における再生時間44分に対応することを算出する。そして、処理実行部154は、Ch1の映像データの先頭から44分の位置を再生するように再生制御部156に指示を出す。
また、利用者が、Ch1のカメラの映像の再生時間10時間27分に、Ch3のカメラの映像に切り替える操作を行った場合には、処理実行部154は、換算情報140を参照して、Ch1のカメラの映像の再生時間10時間27分が、撮影時刻23時00分に対応することを算出する。そして、処理実行部154は、換算情報140を参照することにより、撮影時刻23時00分は、Ch3における再生時間15分に対応することを算出する。そして、処理実行部154は、Ch3の映像データの先頭から15分の位置を再生するように再生制御部156に指示を出す。 Next, how the processing execution unit 154 processes the above switching A to C will be described with reference to FIG.
When the user performs an operation of switching to the video of the Ch2 camera within 12 minutes of the playback time of the video of the Ch1 camera, the process execution unit 154 refers to the conversion information 140 and refers to the video of the Ch1 camera. The reproduction time of 12 minutes corresponds to the shooting time of 6:00:00. This can be calculated by, for example, the following formula (4) or formula (5).
Figure 2013157871
Figure 2013157871
Here, T is a photographing time corresponding to the reproduction time when the user switches. t u is the playback time when the user switched.
Next, the process execution unit 154 sets the reproduction time in the video of the switching destination camera corresponding to the shooting time calculated by the expression (4) or (5) to the above expression (2) or (3). Calculate with Here, the shooting time calculated by the equation (4) or (5) is Tu . According to the conversion information 140, the shooting time of 6:00:00 corresponds to the playback time of 1 hour 40 minutes in Ch2. Therefore, the process execution unit 154 instructs the reproduction control unit 156 to reproduce the position of 1 hour and 40 minutes from the beginning of the video data of Ch2.
Similarly, when the user performs an operation of switching to the video of the Ch1 camera at the playback time of the video of the Ch2 camera at 2 hours and 0 minutes, the process execution unit 154 refers to the conversion information 140, It is calculated that the playback time 2 hours and 0 minutes of the Ch2 camera image corresponds to the shooting time 7:30. Then, the process execution unit 154 refers to the conversion information 140 to calculate that the shooting time of 7:30 corresponds to the playback time of 44 minutes in Ch1. Then, the process execution unit 154 instructs the reproduction control unit 156 to reproduce the position of 44 minutes from the beginning of the Ch1 video data.
In addition, when the user performs an operation of switching to the video of the Ch3 camera within the playback time of the video of the Ch1 camera, which is 10 hours and 27 minutes, the process execution unit 154 refers to the conversion information 140 and selects the Ch1. It is calculated that the video playback time of 10 hours and 27 minutes corresponds to the shooting time of 23:00. Then, the process execution unit 154 refers to the conversion information 140 to calculate that the photographing time 23:00 corresponds to the reproduction time 15 minutes in Ch3. Then, the process execution unit 154 instructs the reproduction control unit 156 to reproduce the position of 15 minutes from the beginning of the Ch3 video data.

以上のように、不連続に撮影された映像データにおいて、撮影時刻をそろえて映像を切り替えるのは複雑であるが、換算情報140と撮影時刻再生制御プログラムとを、映像のデジタル情報と共に記録しておくことにより、容易に、撮影時刻をそろえて、カメラの映像を切り替えることができる。   As described above, in video data shot discontinuously, it is complicated to switch the video at the same shooting time, but the conversion information 140 and the shooting time reproduction control program are recorded together with the video digital information. Therefore, it is possible to easily switch the video of the camera with the same shooting time.

以上に記載した実施の形態では、撮影時の1フレームを再生時の1フレームに対応させている。このため、撮影時のフレームレートが低い場合には、再生時にはたとえば早送りのように映像が表示されてしまう。これを防ぐために、データレイアウト部109において、フレームの補完を行い、撮影時の1秒が再生時の1秒に対応するように調整する方法を取ることもできる。また、補完は行わずに、撮影時のフレームレートに応じて撮影時刻再生制御プログラムからスロー再生のコマンドを発行し、不自然さを軽減する方法を取ることもできる。   In the embodiment described above, one frame at the time of shooting corresponds to one frame at the time of reproduction. For this reason, when the frame rate at the time of shooting is low, an image is displayed like fast-forwarding at the time of reproduction. In order to prevent this, the data layout unit 109 can perform a frame complementation and adjust so that 1 second at the time of shooting corresponds to 1 second at the time of reproduction. In addition, it is possible to take a method of reducing unnaturalness by issuing a slow playback command from the shooting time playback control program according to the frame rate at the time of shooting without performing complementation.

実施の形態4.
実施の形態4は、各々のカメラで撮影された映像データの映像をまとめて表示する例を示す。業務用の監視レコーダーは、このような分割画面表示機能を持つものが多いが、家庭用の再生装置であるBlu−rayプレーヤーは、通常、このような分割画面表示機能が搭載されていない。そこで、家庭用の再生装置でも、業務用と同様の操作性を実現する場合、分割画面に相当する映像の映像データを予め合成してストリームとして保持しておく必要がある。
図1に示すように、実施の形態4におけるオーサリング装置400は、条件入力部101と、映像データ抽出部102と、変換部103と、分析部104と、換算情報作成部107と、プログラム格納部108と、データレイアウト部409と、書出部110とを備える。実施の形態4におけるオーサリング装置400は、データレイアウト部409での処理において、実施の形態1におけるオーサリング装置100と異なっている。
Embodiment 4 FIG.
The fourth embodiment shows an example in which videos of video data shot by each camera are displayed together. Many commercial monitoring recorders have such a split screen display function, but Blu-ray players, which are home-use playback devices, usually do not have such a split screen display function. Therefore, in the case of realizing the same operability as that for business use, it is necessary to synthesize video data of a video corresponding to a divided screen in advance and hold it as a stream even in a home playback device.
As shown in FIG. 1, an authoring apparatus 400 according to the fourth embodiment includes a condition input unit 101, a video data extraction unit 102, a conversion unit 103, an analysis unit 104, a conversion information creation unit 107, and a program storage unit. 108, a data layout unit 409, and a writing unit 110. The authoring device 400 according to the fourth embodiment is different from the authoring device 100 according to the first embodiment in the processing in the data layout unit 409.

データレイアウト部409は、変換部103で生成されたデジタル情報の映像を合成することで、各カメラで撮像された映像を予め定められた位置に配置した分割画面のデジタル情報を生成する。
例えば、図11は、4分割の分割画面の例であり、図12は、9分割の分割画面の例である。例えば、図11に示されている4分割の分割画面において、画面1には、Ch1のカメラで撮像された映像データの映像を配置し、画面2には、Ch2のカメラで撮像された映像データの映像を配置し、画面3には、Ch3のカメラで撮像された映像データの映像を配置し、画面4には、Ch4のカメラで撮像された映像データの映像を配置する。
ここで、データレイアウト部409は、各カメラで撮像された映像を合成する際に、その撮影時刻を揃える。
なお、本実施の形態においては、各カメラで撮像された映像のフレームレートが異なる場合があるが、所定のフレームレートを基準フレームレートとして、この基準フレームレートで、各カメラで撮像された映像データの映像を合成する。例えば、基準フレームレートよりも低いフレームレートの映像データについては、補完等により新たなフレームを生成したり、足りないフレームについては、予め定められたフレームを挿入したりすればよい。ここで、予め定められたフレームは、青及び黒等の一色のフレームとすることができる。また、基準フレームレートよりも低いフレームレートの映像データについては、余分なフレームを削除すればよい。なお、基準フレームレートについては、合成される映像データのフレームレートの内、最も高いフレームレートとすることが望ましい。
さらに、本実施の形態においては、各カメラで撮像された映像データの映像が途切れている場合があるが、このような場合には、撮像されていない時間帯については、予め定められたフレームを挿入すればよい。ここで、予め定められたフレームは、青及び黒等の一色のフレームとすることができる。
The data layout unit 409 synthesizes the digital information video generated by the conversion unit 103 to generate digital information of a divided screen in which the video captured by each camera is arranged at a predetermined position.
For example, FIG. 11 is an example of a four-divided divided screen, and FIG. 12 is an example of a nine-divided divided screen. For example, in the four-split screen shown in FIG. 11, video data captured by the Ch1 camera is arranged on the screen 1, and video data captured by the Ch2 camera is displayed on the screen 2. The video data image captured by the Ch3 camera is disposed on the screen 3, and the video data image captured by the Ch4 camera is disposed on the screen 4.
Here, the data layout unit 409 aligns the shooting times when synthesizing the images captured by the cameras.
In this embodiment, the frame rate of the video captured by each camera may be different, but the video data captured by each camera at this reference frame rate with a predetermined frame rate as the reference frame rate. Synthesize the video. For example, for video data having a frame rate lower than the reference frame rate, a new frame may be generated by complementation or the like, and a predetermined frame may be inserted for a missing frame. Here, the predetermined frame may be a single color frame such as blue and black. For video data having a frame rate lower than the reference frame rate, an extra frame may be deleted. The reference frame rate is preferably the highest frame rate among the frame rates of the video data to be synthesized.
Furthermore, in the present embodiment, the video data captured by each camera may be interrupted. In such a case, a predetermined frame is not used for a time slot when the image is not captured. Insert it. Here, the predetermined frame may be a single color frame such as blue and black.

また、データレイアウト部409は、換算情報作成部107が生成した換算情報140に、分割画面のデジタル情報に対応した、カメラ識別情報、区間識別情報、撮影開始時刻、撮影終了時刻、フレームレート、再生開始時間及び再生終了時間を格納する。   In addition, the data layout unit 409 adds, to the conversion information 140 generated by the conversion information generation unit 107, camera identification information, section identification information, shooting start time, shooting end time, frame rate, playback corresponding to the digital information of the divided screen. Stores the start time and playback end time.

さらに、データレイアウト部409は、どのカメラの映像がどの位置に配置されているのかを示す情報をメタデータとして生成する。なお、このようなメタデータを生成する代わりに、例えば、図3に示されているXML形式の換算情報140#1に、有効チャンネル数(Playlist数)、分割画面における配置位置、配置位置とチャンネル(カメラ)との対応、を示す情報を追加することも可能である。
そして、データレイアウト部409は、変換部103で生成されたデジタル情報と、分割画面のデジタル情報と、換算情報作成部107で生成され、更新された換算情報140と、プログラム格納部108に記憶されている撮影時刻再生制御プログラムとを組み合わせて、書出部110で書き出されるコンテンツの規格に従ってレイアウトするとともに、必要なメタデータを追加することで整合性を取り、コンテンツデータを生成する。
Further, the data layout unit 409 generates information indicating which camera image is located at which position as metadata. Instead of generating such metadata, for example, the conversion information 140 # 1 in the XML format shown in FIG. 3 includes the number of effective channels (the number of playlists), the arrangement position on the divided screen, the arrangement position and the channel. It is also possible to add information indicating the correspondence with (camera).
The data layout unit 409 then stores the digital information generated by the conversion unit 103, the digital information of the split screen, the conversion information 140 generated and updated by the conversion information creation unit 107, and the program storage unit 108. In combination with the shooting time playback control program, the layout is performed according to the standard of the content written out by the writing unit 110, and consistency is obtained by adding necessary metadata to generate content data.

図4に示されているように、実施の形態4における再生装置450は、入力部151と、UI制御部152と、読取部153と、処理実行部454と、再生処理部155とを備える。実施の形態4における再生装置450は、処理実行部454での処理において、実施の形態1における再生装置150と異なっている。   As illustrated in FIG. 4, the playback device 450 in the fourth embodiment includes an input unit 151, a UI control unit 152, a reading unit 153, a process execution unit 454, and a playback processing unit 155. The playback device 450 in the fourth embodiment is different from the playback device 150 in the first embodiment in the processing in the processing execution unit 454.

処理実行部454は、読取部153で読み取られたコンテンツデータに含まれている撮影時刻再生制御プログラムを実行して、撮影時刻再生制御を行う。本実施の形態においては、表示部170に分割画面が表示されている場合には、処理実行部454は、プレゼンテーション制御部157を制御することにより、入力部151を介して、表示されている分割画面において、各カメラで撮像された映像データの映像が配置されている領域を選択することができるようにする。そして、処理実行部454は、利用者が入力部151を介して、カメラで撮像された映像データの映像が配置されている領域を選択する操作の入力を行うと、入力された際の再生時間に対応する撮影時刻に基づいて、選択されたカメラの映像データの映像を表示部170に表示させる。この処理については、実施の形態3での処理と同様である。   The process execution unit 454 executes a shooting time reproduction control program included in the content data read by the reading unit 153 to perform shooting time reproduction control. In the present embodiment, when a split screen is displayed on the display unit 170, the process execution unit 454 controls the presentation control unit 157 to display the split displayed via the input unit 151. On the screen, it is possible to select an area in which video data captured by each camera is placed. Then, when the user performs an input of an operation for selecting an area in which a video data image captured by the camera is arranged via the input unit 151, the processing execution unit 454 performs a reproduction time when the input is performed. The video of the video data of the selected camera is displayed on the display unit 170 based on the shooting time corresponding to. This process is the same as the process in the third embodiment.

以上のように、実施の形態4によれば、再生装置450の利用者は、各カメラで撮影された映像データの映像を1つの画面で見ることができ、また、この画面で、拡大して表示する映像を選択することにより、その映像が表示部170に拡大して表示される。従って、今回新たに付け加えられた分割表示画面用のデジタル情報も、チャンネルの1つとして、撮影時刻に基づいて、他のチャンネルの映像に切り替えることで、分割表示画面と個別の画面とを自由に切り替えることができるようになる。このため、家庭用の再生装置においても、業務用監視レコーダーの分割表示に類似した操作性を実現することができる。   As described above, according to the fourth embodiment, the user of the playback device 450 can view the video data captured by each camera on a single screen, and can be enlarged on this screen. By selecting a video to be displayed, the video is enlarged and displayed on the display unit 170. Therefore, the newly added digital information for the split display screen is also switched to the video of another channel based on the shooting time as one of the channels, so that the split display screen and the individual screen can be freely set. It will be possible to switch. For this reason, even in a home playback device, it is possible to realize operability similar to the split display of a commercial monitoring recorder.

なお、以上の説明では、データレイアウト部409は、どのカメラの映像がどの位置に配置されているのかを示す情報を示すメタデータを生成しているが、予め定められた分割数で、予め定められた分割位置に、予め定められたカメラの映像を配置する場合には、このようなメタデータを生成する必要はない。このような場合には、予め定められた分割数、分割位置及びカメラの映像の配置を撮影時刻再生制御プログラムに組み込んでおけばよい。   In the above description, the data layout unit 409 generates metadata indicating information indicating which camera's video is located at which position. However, the data layout unit 409 uses a predetermined number of divisions to determine in advance. In the case where a predetermined camera image is arranged at a predetermined division position, it is not necessary to generate such metadata. In such a case, a predetermined number of divisions, division positions, and camera video arrangements may be incorporated into the shooting time reproduction control program.

なお、実施の形態4におけるオーサリング装置400及び再生装置450のそれぞれが、実施の形態2又は3におけるオーサリング装置100及び再生装置150のそれぞれが行っている処理を行うことができるようにしてもよい。   Note that each of the authoring device 400 and the playback device 450 in the fourth embodiment may be able to perform the processes performed by the authoring device 100 and the playback device 150 in the second or third embodiment.

以上に記載した実施の形態1〜4においては、監視映像データベース131は、オーサリング装置100、400の外部に設けられているが、オーサリング装置100、400の内部に設けられていてもよい。   In the first to fourth embodiments described above, the monitoring video database 131 is provided outside the authoring devices 100 and 400, but may be provided inside the authoring devices 100 and 400.

100,400:オーサリング装置、 101:条件入力部、 102:映像データ抽出部、 103:変換部、 104:分析部、 105:フレームレート判別部、 106:連続区間判別部、 107:換算情報作成部、 108:プログラム格納部、 109,409:データレイアウト部、 110:書出部、 131:監視映像データベース、 132:記憶媒体、 150,450:再生装置、 151:入力部、 152:UI制御部、 153:読取部、 154,454:処理実行部、 155:再生処理部、 156:再生制御部、 157:プレゼンテーション制御部、 158:デコーダ部、 159:画面合成部。   100: 400: Authoring device 101: Condition input unit 102: Video data extraction unit 103: Conversion unit 104: Analysis unit 105: Frame rate discrimination unit 106: Continuous segment discrimination unit 107: Conversion information creation unit 108: Program storage unit 109, 409: Data layout unit 110: Export unit 131: Monitoring video database 132: Storage medium 150, 450: Playback device 151: Input unit 152: UI control unit 153: Reading unit, 154, 454: Processing execution unit, 155: Playback processing unit, 156: Playback control unit, 157: Presentation control unit, 158: Decoder unit, 159: Screen composition unit

Claims (12)

映像データを分析することで、1つのフレームレートで連続して撮影されている区間を特定し、当該区間の撮影時刻と、フレームレート及び再生時間の少なくとも何れか一方とを特定する分析部と、
前記分析部により特定された情報を含む換算情報を作成する換算情報作成部と、
前記映像データを所定のフォーマットのデジタル情報に変換する変換部と、
前記換算情報を用いて、撮影時刻に対応する再生時間の映像データを前記デジタル情報から再生するための撮影時刻再生制御プログラムを格納するプログラム格納部と、
前記換算情報、前記デジタル情報及び前記撮影時刻再生制御プログラムを含むコンテンツデータを生成するデータレイアウト部と、
前記コンテンツデータを可搬性記憶媒体に書き出す書出部と、を備えること
を特徴とする情報処理装置。
By analyzing the video data, the section that is continuously shot at one frame rate is specified, and the analysis unit that specifies the shooting time of the section and at least one of the frame rate and the playback time;
A conversion information creation unit for creating conversion information including information specified by the analysis unit;
A conversion unit for converting the video data into digital information of a predetermined format;
A program storage unit for storing a shooting time reproduction control program for reproducing video data of a reproduction time corresponding to a shooting time from the digital information using the conversion information;
A data layout unit for generating content data including the conversion information, the digital information, and the shooting time reproduction control program;
An information processing apparatus comprising: a writing unit that writes the content data to a portable storage medium.
前記映像データを抽出するための条件の入力を受け付ける条件入力部と、
複数の映像データを記憶している映像データ記憶部から、前記条件入力部が入力を受け付けた条件を満たす映像データを抽出する映像データ抽出部と、をさらに備え、
前記分析部は、前記映像データ抽出部で抽出された映像データを分析し、
前記変換部は、前記映像データ抽出部で抽出された映像データを変換すること
を特徴とする請求項1に記載の情報処理装置。
A condition input unit for receiving an input of a condition for extracting the video data;
A video data extraction unit that extracts video data that satisfies a condition that the condition input unit has received an input from a video data storage unit that stores a plurality of video data; and
The analysis unit analyzes the video data extracted by the video data extraction unit,
The information processing apparatus according to claim 1, wherein the conversion unit converts the video data extracted by the video data extraction unit.
前記映像データ記憶部には、複数の撮像装置で撮像された複数の映像データが記憶されており、
前記条件入力部は、前記条件として、抽出する映像データを撮像した撮像装置を示す情報の入力を受け付け、
前記分析部は、前記映像データ抽出部で抽出された映像データを分析して、前記条件入力部が入力を受け付けた情報で示される撮像装置毎に、1つのフレームレートで連続して撮影されている区間を特定し、当該区間の撮影時刻と、フレームレート及び再生時間の少なくとも何れか一方とを特定し、
前記換算情報は、前記条件入力部が入力を受け付けた情報で示される撮像装置毎に、前記分析部により特定された情報を含む情報であり、
前記撮影時刻再生制御プログラムは、前記換算情報を用いて、前記条件入力部が入力を受け付けた情報で示される撮像装置毎に、撮影時刻に対応する再生時間の映像データを前記デジタル情報から再生するためのプログラムであること
を特徴とする請求項2に記載の情報処理装置。
The video data storage unit stores a plurality of video data captured by a plurality of imaging devices,
The condition input unit accepts input of information indicating an imaging device that has captured the video data to be extracted as the condition,
The analysis unit analyzes the video data extracted by the video data extraction unit, and is continuously photographed at one frame rate for each imaging device indicated by the information received by the condition input unit. Identifying a section, identifying a shooting time of the section and at least one of a frame rate and a playback time,
The conversion information is information including information specified by the analysis unit for each imaging device indicated by the information received by the condition input unit,
The shooting time reproduction control program uses the conversion information to reproduce the video data of the reproduction time corresponding to the shooting time from the digital information for each imaging device indicated by the information received by the condition input unit. The information processing apparatus according to claim 2, wherein the information processing apparatus is a program.
前記データレイアウト部は、前記条件入力部が入力を受け付けた情報により複数の撮像装置が示される場合に、前記換算情報を用いて、前記デジタル情報に基づいて、前記条件入力部が入力を受け付けた情報で示される複数の撮像装置で撮像された映像データの映像を撮影時刻が同じになるように合成することで、合成映像データのデジタル情報を生成して、当該合成映像データのデジタル情報を前記コンテンツデータに含めるとともに、当該合成映像データのデジタル情報において、1つのフレームレートで連続して撮影されている区間の撮影時刻と、フレームレート及び再生時間の少なくとも何れか一方とを特定し、当該特定された情報を前記換算情報に追加すること
を特徴とする請求項3に記載の情報処理装置。
The data layout unit receives an input from the condition input unit based on the digital information using the conversion information when a plurality of imaging devices are indicated by the information received by the condition input unit. By synthesizing the video data captured by the plurality of imaging devices indicated by the information so that the shooting times are the same, digital information of the synthesized video data is generated, and the digital information of the synthesized video data is Included in the content data, and in the digital information of the composite video data, specify the shooting time of the section continuously shot at one frame rate and at least one of the frame rate and the playback time, and specify The information processing apparatus according to claim 3, wherein the processed information is added to the conversion information.
コンピュータを
可搬性記憶媒体から、撮影された映像データを再生するためのデジタル情報と、当該デジタル情報において、1つのフレームレートで連続して撮影されている区間の撮影時刻、並びに、フレームレート及び再生時間の少なくとも何れか一方を含む換算情報と、を含むコンテンツデータを読み取る読取部と、
撮影時刻の入力を受け付ける入力部と、
前記読取部が読み取った換算情報を用いて、前記入力部が入力を受け付けた撮影時刻に対応する再生時間を特定する処理実行部と、
前記処理実行部で特定された再生時間に対応する映像データを、前記読取部が読み取ったデジタル情報から再生する再生処理部と、して機能させること
を特徴とするプログラム。
Digital information for playing back captured video data from a portable storage medium on a computer, shooting time of a section continuously shot at one frame rate in the digital information, and frame rate and playback A reading unit that reads content data including conversion information including at least one of the time;
An input unit for receiving an input of a shooting time;
A process execution unit for specifying a reproduction time corresponding to a shooting time at which the input unit has received an input, using the conversion information read by the reading unit;
A program that causes video data corresponding to a reproduction time specified by the processing execution unit to function as a reproduction processing unit that reproduces digital data read by the reading unit.
前記コンテンツデータは、撮像装置毎に撮影された映像データを再生するためのデジタル情報と、撮像装置毎に、1つのフレームレートで連続して撮影されている区間の撮影時刻、並びに、フレームレート及び再生時間の少なくとも何れか一方を含む換算情報と、を含み、
前記入力部は、前記再生処理部が映像データの再生中に、撮像装置を示す情報の入力を受け付け、
前記処理実行部は、前記読取部が読み取った換算情報を用いて、前記再生処理部が再生している映像データの撮影時刻に対応する、前記入力部が入力を受け付けた情報で示される撮影装置で撮影された映像データの再生時間を特定し、
前記再生処理部は、前記読取部が読み取ったデジタル情報より、前記入力部が入力を受け付けた情報で示される撮影装置で撮影された映像データを、前記処理実行部で特定された再生時間から再生すること
を特徴とする請求項5に記載のプログラム。
The content data includes digital information for reproducing video data shot for each imaging device, shooting time of a section continuously shot at one frame rate for each imaging device, a frame rate, Conversion information including at least one of the playback times, and
The input unit accepts input of information indicating an imaging device while the reproduction processing unit reproduces video data,
The processing execution unit uses the conversion information read by the reading unit, and corresponds to the shooting time of the video data reproduced by the reproduction processing unit, and is indicated by information received by the input unit Specify the playback time of the video data recorded in
The reproduction processing unit reproduces, from the reproduction time specified by the processing execution unit, the video data captured by the imaging device indicated by the information received by the input unit based on the digital information read by the reading unit. The program according to claim 5, wherein:
映像データを分析することで、1つのフレームレートで連続して撮影されている区間を特定し、当該区間の撮影時刻と、フレームレート及び再生時間の少なくとも何れか一方とを特定する分析過程と、
前記分析過程により特定された情報を含む換算情報を作成する換算情報作成過程と、
前記映像データを所定のフォーマットのデジタル情報に変換する変換過程と、
前記換算情報、前記デジタル情報、及び、前記換算情報を用いて、撮影時刻に対応する再生時間の映像データを前記デジタル情報から再生するための撮影時刻再生制御プログラムを含むコンテンツデータを生成するデータレイアウト過程と、
前記コンテンツデータを可搬性記憶媒体に書き出す書出過程と、を有すること
を特徴とする情報処理方法。
By analyzing the video data, an analysis process for specifying a section that is continuously shot at one frame rate, and specifying a shooting time of the section and at least one of a frame rate and a playback time;
A conversion information creation process for creating conversion information including the information specified by the analysis process;
A conversion process for converting the video data into digital information of a predetermined format;
A data layout for generating content data including a shooting time playback control program for playing back video data of a playback time corresponding to a shooting time from the digital information using the conversion information, the digital information, and the conversion information Process,
And a writing process for writing the content data to a portable storage medium.
前記映像データを抽出するための条件の入力を受け付ける条件入力過程と、
前記条件入力過程で入力を受け付けた条件を満たす映像データを抽出する映像データ抽出過程と、をさらに有し、
前記分析過程は、前記映像データ抽出過程で抽出された映像データを分析し、
前記変換過程は、前記映像データ抽出過程で抽出された映像データを変換すること
を特徴とする請求項7に記載の情報処理方法。
A condition input process for receiving an input of conditions for extracting the video data;
A video data extraction process for extracting video data that satisfies the condition of receiving an input in the condition input process,
The analysis process analyzes the video data extracted in the video data extraction process,
The information processing method according to claim 7, wherein the conversion process converts the video data extracted in the video data extraction process.
前記条件入力過程は、前記条件として、抽出する映像データを撮像した撮像装置を示す情報の入力を受け付け、
前記分析過程は、前記映像データ抽出過程で抽出された映像データを分析して、前記条件入力過程が入力を受け付けた情報で示される撮像装置毎に、1つのフレームレートで連続して撮影されている区間を特定し、当該区間の撮影時刻と、フレームレート及び再生時間の少なくとも何れか一方とを特定し、
前記換算情報は、前記条件入力過程で入力を受け付けた情報で示される撮像装置毎に、前記分析過程により特定された情報を含む情報であり、
前記撮影時刻再生制御プログラムは、前記換算情報を用いて、前記条件入力過程で入力を受け付けた情報で示される撮像装置毎に、撮影時刻に対応する再生時間の映像データを前記デジタル情報から再生するためのプログラムであること
を特徴とする請求項8に記載の情報処理方法。
In the condition input process, as the condition, an input of information indicating an image pickup apparatus that picks up image data to be extracted is received,
The analysis process analyzes the video data extracted in the video data extraction process, and the condition input process continuously captures images at one frame rate for each imaging device indicated by the received information. Identifying a section, identifying a shooting time of the section and at least one of a frame rate and a playback time,
The conversion information is information including information specified by the analysis process for each imaging device indicated by the information received in the condition input process,
The shooting time reproduction control program uses the conversion information to reproduce video data of a reproduction time corresponding to the shooting time from the digital information for each imaging device indicated by the information received in the condition input process. The information processing method according to claim 8, wherein the information processing method is a program.
前記データレイアウト過程は、前記条件入力過程で入力を受け付けた情報により複数の撮像装置が示される場合に、前記換算情報を用いて、前記デジタル情報に基づいて、前記条件入力過程で入力を受け付けた情報で示される複数の撮像装置で撮像された映像データの映像を撮影時刻が同じになるように合成することで、合成映像データのデジタル情報を生成して、当該合成映像データのデジタル情報を前記コンテンツデータに含めるとともに、当該合成映像データのデジタル情報において、1つのフレームレートで連続して撮影されている区間の撮影時刻と、フレームレート及び再生時間の少なくとも何れか一方とを特定し、当該特定された情報を前記換算情報に追加すること
を特徴とする請求項9に記載の情報処理方法。
In the data layout process, when a plurality of imaging devices are indicated by the information received in the condition input process, the input is received in the condition input process based on the digital information using the conversion information. By synthesizing the video data captured by the plurality of imaging devices indicated by the information so that the shooting times are the same, digital information of the synthesized video data is generated, and the digital information of the synthesized video data is Included in the content data, and in the digital information of the composite video data, specify the shooting time of the section continuously shot at one frame rate and at least one of the frame rate and the playback time, and specify The information processing method according to claim 9, wherein the converted information is added to the conversion information.
可搬性記憶媒体から、撮影された映像データを再生するためのデジタル情報と、当該デジタル情報において、1つのフレームレートで連続して撮影されている区間の撮影時刻、並びに、フレームレート及び再生時間の少なくとも何れか一方を含む換算情報と、を含むコンテンツデータを読み取る読取過程と、
撮影時刻の入力を受け付ける入力過程と、
前記読取過程で読み取られた換算情報を用いて、前記入力過程で入力を受け付けた撮影時刻に対応する再生時間を特定する処理実行過程と、
前記処理実行過程で特定された再生時間に対応する映像データを、前記読取過程で読み取られたデジタル情報から再生する再生処理過程と、を有すること
を特徴とする再生方法。
Digital information for reproducing captured video data from a portable storage medium, the shooting time of a section continuously shot at one frame rate in the digital information, and the frame rate and playback time A reading process of reading content data including conversion information including at least one of them,
An input process for accepting an input of a shooting time;
Using the conversion information read in the reading process, a process execution process for specifying a reproduction time corresponding to a shooting time at which an input is received in the input process;
A reproduction processing step of reproducing the video data corresponding to the reproduction time specified in the processing execution step from the digital information read in the reading step.
前記コンテンツデータは、撮像装置毎に撮影された映像データを再生するためのデジタル情報と、撮像装置毎に、1つのフレームレートで連続して撮影されている区間の撮影時刻、並びに、フレームレート及び再生時間の少なくとも何れか一方を含む換算情報と、を含み、
前記入力過程は、前記再生処理部が映像データの再生中に、撮像装置を示す情報の入力を受け付け、
前記処理実行過程は、前記読取部が読み取った換算情報を用いて、前記再生処理過程で再生されている映像データの撮影時刻に対応する、前記入力過程で入力を受け付けた情報で示される撮影装置で撮影された映像データの再生時間を特定し、
前記再生処理過程は、前記読取過程で読み取られたデジタル情報より、前記入力過程で入力を受け付けた情報で示される撮影装置で撮影された映像データを、前記処理実行過程で特定された再生時間から再生すること
を特徴とする請求項11に記載の再生方法。
The content data includes digital information for reproducing video data shot for each imaging device, shooting time of a section continuously shot at one frame rate for each imaging device, a frame rate, Conversion information including at least one of the playback times, and
In the input process, during the reproduction of the video data, the reproduction processing unit accepts input of information indicating the imaging device,
The process execution process uses the conversion information read by the reading unit, and corresponds to the shooting time of the video data reproduced in the reproduction process, and is an imaging apparatus indicated by information received in the input process Specify the playback time of the video data recorded in
In the reproduction process, from the digital information read in the reading process, the video data captured by the imaging apparatus indicated by the information received in the input process is obtained from the reproduction time specified in the process execution process. The reproduction method according to claim 11, wherein reproduction is performed.
JP2012018141A 2012-01-31 2012-01-31 Information processing apparatus, program, information processing method, and reproduction method Active JP5846940B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012018141A JP5846940B2 (en) 2012-01-31 2012-01-31 Information processing apparatus, program, information processing method, and reproduction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012018141A JP5846940B2 (en) 2012-01-31 2012-01-31 Information processing apparatus, program, information processing method, and reproduction method

Publications (3)

Publication Number Publication Date
JP2013157871A true JP2013157871A (en) 2013-08-15
JP2013157871A5 JP2013157871A5 (en) 2015-02-05
JP5846940B2 JP5846940B2 (en) 2016-01-20

Family

ID=49052650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012018141A Active JP5846940B2 (en) 2012-01-31 2012-01-31 Information processing apparatus, program, information processing method, and reproduction method

Country Status (1)

Country Link
JP (1) JP5846940B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015136084A (en) * 2014-01-20 2015-07-27 富士通株式会社 Data transmission apparatus, information processing apparatus, data transmission program, and data transmission method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000125240A (en) * 1998-10-13 2000-04-28 For-A Co Ltd Time code management system in recording and reproducing device
JP2002262233A (en) * 2001-03-01 2002-09-13 Mitsubishi Electric Corp Behavior measurement system
JP2010212875A (en) * 2009-03-09 2010-09-24 Canon Inc Video player and video playback method
JP2010226278A (en) * 2009-03-23 2010-10-07 Panasonic Corp Recording device and method, program, and medium
JP2011223193A (en) * 2010-04-07 2011-11-04 Mitsubishi Electric Corp Image monitoring recorder
JP2012004941A (en) * 2010-06-18 2012-01-05 Mitsubishi Electric Corp Video reproduction device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000125240A (en) * 1998-10-13 2000-04-28 For-A Co Ltd Time code management system in recording and reproducing device
JP2002262233A (en) * 2001-03-01 2002-09-13 Mitsubishi Electric Corp Behavior measurement system
JP2010212875A (en) * 2009-03-09 2010-09-24 Canon Inc Video player and video playback method
JP2010226278A (en) * 2009-03-23 2010-10-07 Panasonic Corp Recording device and method, program, and medium
JP2011223193A (en) * 2010-04-07 2011-11-04 Mitsubishi Electric Corp Image monitoring recorder
JP2012004941A (en) * 2010-06-18 2012-01-05 Mitsubishi Electric Corp Video reproduction device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015136084A (en) * 2014-01-20 2015-07-27 富士通株式会社 Data transmission apparatus, information processing apparatus, data transmission program, and data transmission method

Also Published As

Publication number Publication date
JP5846940B2 (en) 2016-01-20

Similar Documents

Publication Publication Date Title
JP2005109923A (en) Video image recorder, editing data preparing device, and editing data preparing program
JP5846940B2 (en) Information processing apparatus, program, information processing method, and reproduction method
JP5207943B2 (en) Imaging device
JP2005149559A (en) Dubbing equipment
JP2010263374A (en) Recording and reproducing device and recording and reproducing method
JP4982346B2 (en) Recording apparatus, reproducing apparatus, and recording medium
JP3886822B2 (en) Video information reproducing device and remote control device
JP4230402B2 (en) Thumbnail image extraction method, apparatus, and program
JP4035984B2 (en) Information recording apparatus, camera-integrated information recording apparatus, and information recording method
JP2012156879A (en) Recording apparatus and reproducing apparatus
JP2009129484A (en) Information recording/reproducing apparatus
JP3126029U (en) Optical disc recording / reproducing apparatus
JP5240014B2 (en) Video recording device
KR20050058638A (en) Method and aparatus for showing recording list in digital recorder
JP5299043B2 (en) Video recording / reproducing apparatus, video recording / reproducing method, and video recording / reproducing program
JP3938168B2 (en) Data recording / reproducing device
JP4735611B2 (en) Image data reproducing apparatus and image data reproducing method
JP4400684B2 (en) Information processing apparatus, recording / reproducing apparatus
KR101137838B1 (en) Method for recording and reproducing caption signal
JP4974838B2 (en) Guide information providing system and video playback apparatus
KR100661182B1 (en) Image recording apparatus for generating chapter mark to dividing contents and the chapter mark generating method thereof
JP4379534B2 (en) Recording / playback device
JP4424441B2 (en) Image management apparatus and image management method
JP2007265558A (en) Data recording and reproducing device and method
JP2008310910A (en) Recording and reproducing apparatus and its controlling method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151124

R150 Certificate of patent or registration of utility model

Ref document number: 5846940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250