[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6721915B1 - Video processing apparatus and video processing method - Google Patents

Video processing apparatus and video processing method Download PDF

Info

Publication number
JP6721915B1
JP6721915B1 JP2019231011A JP2019231011A JP6721915B1 JP 6721915 B1 JP6721915 B1 JP 6721915B1 JP 2019231011 A JP2019231011 A JP 2019231011A JP 2019231011 A JP2019231011 A JP 2019231011A JP 6721915 B1 JP6721915 B1 JP 6721915B1
Authority
JP
Japan
Prior art keywords
video
display
video data
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019231011A
Other languages
Japanese (ja)
Other versions
JP2021100188A (en
Inventor
恒司 森川
恒司 森川
高野 淳
淳 高野
淳志 竹鼻
淳志 竹鼻
憲 土佐林
憲 土佐林
香織 堀江
香織 堀江
Original Assignee
首都高技術株式会社
株式会社ファンクリエイト
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 首都高技術株式会社, 株式会社ファンクリエイト filed Critical 首都高技術株式会社
Priority to JP2019231011A priority Critical patent/JP6721915B1/en
Application granted granted Critical
Publication of JP6721915B1 publication Critical patent/JP6721915B1/en
Publication of JP2021100188A publication Critical patent/JP2021100188A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】再生すべき映像の選択を容易に行う。【解決手段】映像処理装置は、所定のフレーム毎に撮像環境を示す環境情報が記録された複数の映像データを保持するデータ保持手段と、検索情報を入力する入力手段と、前記入力された検索情報に基づいて所定の環境情報の範囲を設定する設定手段と、前記複数の映像データから前記設定された所定の範囲内の環境情報を有する映像データを表示候補として選択する候補選択手段と、前記選択された表示候補の映像データを提示する提示手段と、前記提示された表示候補の前記映像データから選択された映像データを表示させる表示手段とを備える。【選択図】図1PROBLEM TO BE SOLVED: To easily select an image to be reproduced. A video processing device includes a data holding unit that holds a plurality of video data in which environment information indicating an imaging environment is recorded for each predetermined frame, an input unit that inputs search information, and the input search. Setting means for setting a range of predetermined environment information based on information; candidate selecting means for selecting, as a display candidate, video data having environment information within the set predetermined range from the plurality of video data; The present invention includes a presentation unit that presents the video data of the selected display candidate, and a display unit that displays the video data selected from the video data of the presented display candidate. [Selection diagram] Figure 1

Description

本発明は、映像処理システム及び映像処理方法に関する。 The present invention relates to a video processing system and a video processing method.

従来、路面に関連する路面構造物や路面の周辺に設置された付属構造物等を含む道路構造物を点検する場合、点検用車両に搭載したカメラ等によって撮像した映像を点検者が確認している。
特許文献1には、光学映像に応じた撮像信号を用いて光学映像に応じた映像データを生成するときに、位置情報および方位情報を、映像データに挿入する技術が開示されている。
Conventionally, when inspecting road structures including road structures related to the road surface and ancillary structures installed around the road surface, the inspector confirms the image captured by the camera installed in the inspection vehicle. There is.
Patent Document 1 discloses a technique of inserting position information and azimuth information into video data when video data corresponding to the optical video is generated using an image pickup signal corresponding to the optical video.

2009−159279号公報Publication No. 2009-159279

カメラ等で撮像された映像をもとに点検対象となる物体の状態を確認する場合、例えば、特定の撮像条件で撮像されたフレームを取り出して確認することができると、点検作業効率が一段と向上する。
しかしながら、特許文献1に記載の技術では、撮像条件に応じて、複数の映像データから、再生すべき映像データの選択を容易にすることは考慮されていない。
本発明は、上記した従来技術に鑑み考案されたもので、再生すべき映像の選択を容易に行うことができる映像処理システム及び映像処理方法を提供することを目的とする。
When confirming the state of an object to be inspected based on the image captured by a camera, for example, if the frame captured under a specific image capturing condition can be taken out and confirmed, the inspection work efficiency will be further improved. To do.
However, the technique described in Patent Document 1 does not consider facilitating the selection of video data to be reproduced from a plurality of video data according to the imaging conditions.
The present invention has been devised in view of the above-mentioned conventional technique, and an object thereof is to provide a video processing system and a video processing method capable of easily selecting a video to be reproduced.

上記課題を解決するために、本発明にかかる映像処理装置のある態様によれば、所定のフレーム毎に撮像環境を示す環境情報が記録された複数の映像データを保持するデータ保持手段と、検索情報を入力する入力手段と、前記入力された検索情報に基づいて所定の環境情報の範囲を設定する設定手段と、前記複数の映像データから前記設定された所定の範囲内の環境情報を有する映像データを表示候補として選択する候補選択手段と、前記選択された表示候補の映像データを提示する提示手段と、前記提示された表示候補の前記映像データから選択された映像データを表示させる表示手段とを備える映像処理装置が提供される。 In order to solve the above problems, according to an aspect of a video processing device of the present invention, a data holding unit that holds a plurality of video data in which environmental information indicating an imaging environment is recorded for each predetermined frame, and a search. Input means for inputting information, setting means for setting a range of predetermined environment information based on the input search information, and video having environment information within the predetermined range set from the plurality of video data Candidate selection means for selecting data as a display candidate, presentation means for presenting the video data of the selected display candidate, and display means for displaying the video data selected from the video data of the presented display candidate. An image processing device is provided.

また、ある態様によれば、環境情報には、映像データが撮像された時刻、映像データが撮像された位置、映像データが撮像された際の車両の姿勢、映像データが撮像された際の車両の振動、映像データが撮像された際の車両の周囲の温度、映像データが撮像された際の車両の周囲の音、映像データが撮像された際の車両の速度、の少なくとも1つが含まれる。 According to one aspect, the environment information includes the time when the image data was captured, the position where the image data was captured, the posture of the vehicle when the image data was captured, and the vehicle when the image data was captured. Vibration, temperature around the vehicle when the image data is captured, sound around the vehicle when the image data is captured, and speed of the vehicle when the image data is captured.

本発明によれば、再生すべき映像の選択を容易に行うことができる。 According to the present invention, it is possible to easily select a video to be reproduced.

本発明の第1の実施形態に係る映像処理システムの一例を示す概略構成図である。It is a schematic block diagram which shows an example of the video processing system which concerns on the 1st Embodiment of this invention. 映像を撮像する撮像システムの一例を示す概略構成図である。It is a schematic block diagram which shows an example of the imaging system which images a video. 撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of an imaging device. 映像ファイルの構成例である。It is an example of composition of a picture file. 再生制御装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a reproduction control apparatus. 映像ファイルの表示処理を示すフローチャートである。It is a flowchart which shows the display process of a video file. 検索情報を選択する画面の例を示す図である。It is a figure which shows the example of the screen which selects search information. 検索情報を入力する画面の例を示す図である。It is a figure which shows the example of the screen which inputs search information. 検索情報の入力の例を示す図である。It is a figure which shows the example of input of search information. 所定の環境情報の範囲の設定と表示候補の映像ファイルの選択処理を概念的に示す図である。It is a figure which shows notionally the setting process of the range of predetermined environmental information, and the selection process of the video file of a display candidate. 表示候補となる映像ファイルの提示の例を示す図である。It is a figure which shows the example of presentation of the video file used as a display candidate. 表示候補となる映像ファイルの提示の例を示す図である。It is a figure which shows the example of presentation of the video file used as a display candidate. 表示候補のいずれかを選択した状態の画面の例を示す図である。It is a figure which shows the example of the screen in the state which selected any of the display candidates. 本発明の第2の実施形態に係る映像処理システムにおける映像ファイルの表示処理を示すフローチャートである。8 is a flowchart showing a video file display process in the video processing system according to the second embodiment of the present invention. 選択された映像の表示画面の例を示す図である。It is a figure which shows the example of the display screen of the selected video. 検索情報を選択する画面の例を示す図である。It is a figure which shows the example of the screen which selects search information.

以下、本発明の実施の形態を図面に基づいて説明する。
(第1の実施形態)
図1は、本実施形態における映像処理システム100の一例を示す概略構成図である。
この映像処理システムは、撮像された映像ファイル(映像データ)等が格納されている映像DB(データベース)1と、映像ファイルの再生等の処理を行う表示制御装置2と、ユーザからの指示等を入力する入力装置3と、映像ファイルに応じた画像等を表示する表示装置4とを備えている。
映像DB1には、様々な撮像条件で撮像された道路や周囲の風景等の映像ファイル1aと、地図等の画像データ1bと、条件設定や表示制御等に用いる設定データ1cとが格納されている。
表示制御装置2は、入力装置3を介してユーザからの指示を入力する指示入力部2aと、再生候補の映像ファイルを選択する候補選択部2bと、ユーザによって選択された映像を取得する映像取得部2cと、映像取得部2cが取得した映像ファイルに応じた画像等を表示装置4に表示させる表示制御部2dとを備えている。
入力装置3は、ユーザからの指示を入力するキーボード3aとマウス3b等を備えている。
表示装置4は、液晶ディスプレイ装置等からなり、表示制御装置2の表示制御部2dからの制御に応じた画像を表示させる。
Embodiments of the present invention will be described below with reference to the drawings.
(First embodiment)
FIG. 1 is a schematic configuration diagram showing an example of a video processing system 100 according to this embodiment.
The video processing system includes a video DB (database) 1 in which captured video files (video data) and the like are stored, a display control device 2 for performing processing such as reproduction of the video files, and instructions from a user. An input device 3 for inputting and a display device 4 for displaying an image or the like according to a video file are provided.
The video DB 1 stores a video file 1a such as a road and surrounding scenery imaged under various imaging conditions, image data 1b such as a map, and setting data 1c used for condition setting and display control. ..
The display control device 2 includes an instruction input unit 2a for inputting an instruction from a user via the input device 3, a candidate selection unit 2b for selecting a video file of a reproduction candidate, and an image acquisition for acquiring an image selected by the user. It is provided with a unit 2c and a display control unit 2d that causes the display device 4 to display an image or the like according to the video file acquired by the video acquisition unit 2c.
The input device 3 includes a keyboard 3a, a mouse 3b, and the like for inputting instructions from the user.
The display device 4 is composed of a liquid crystal display device or the like, and displays an image according to control from the display control unit 2 d of the display control device 2.

映像DB1に格納されている映像ファイル1aは、例えば図2に示す撮像システム300によって様々な撮像条件で撮像されている。この撮像システム300は、例えば車両200に搭載可能である。車両200は、例えば、高速道路をはじめとする各種道路において、所定の日数毎に行われる点検を実施するための点検用車両である。撮像システム300は、3つの撮像装置10a、10b、10cを備えている。3つの撮像装置10a、10b、10cは同じ構造を有する。撮像装置10a、10b、10cは同期制御部30に接続されている。同期制御部30は、各撮像装置10a〜10cの撮像タイミングをフレーム単位で同期させるための制御を行う。また、撮像システム300は、撮像条件(例えば撮像時刻、車両200の位置や姿勢あるいは振動、周囲の温度、周囲の音、車両200の走行速度等)を測定するセンサ部37を備えている。このセンサ部37の出力は、同期制御部30を介して各撮像装置10a〜10cに供給されている。 The image file 1a stored in the image DB 1 is imaged under various image capturing conditions by the image capturing system 300 shown in FIG. 2, for example. The imaging system 300 can be mounted on the vehicle 200, for example. The vehicle 200 is, for example, an inspection vehicle for performing inspections performed every predetermined number of days on various roads including an expressway. The imaging system 300 includes three imaging devices 10a, 10b, and 10c. The three imaging devices 10a, 10b, 10c have the same structure. The imaging devices 10a, 10b, 10c are connected to the synchronization control unit 30. The synchronization control unit 30 performs control for synchronizing the image pickup timing of each of the image pickup devices 10a to 10c in frame units. The imaging system 300 also includes a sensor unit 37 that measures imaging conditions (for example, imaging time, position and orientation or vibration of the vehicle 200, ambient temperature, ambient sound, traveling speed of the vehicle 200, and the like). The output of the sensor unit 37 is supplied to each of the imaging devices 10a to 10c via the synchronization control unit 30.

センサ部37は、例えば時刻情報取得部37aと、位置情報取得部37bと、姿勢情報取得部37cと、温度情報取得部37dと、音情報取得部37eと、速度情報取得部37fとを備えている。
時刻情報取得部37aは、例えば、電波時計等に用いられる標準電波を受信する受信機を備え、当該受信機で受信した標準電波から得られる標準時刻情報を、撮像時刻を示す情報として同期制御部30を介して各撮像装置10a〜10cの信号処理部14に出力する。ここで、標準電波としては、日本のJJY、米国のWWVB、英国のMSF、及び、独国のDCF77などがある。なお、インターネットを通じて時刻情報を提供する時刻情報提供サービスや放送の時報を利用して時刻情報を取得してもよいし、同期制御部30や図示しないパソコンに内蔵された時計を利用して時刻情報を取得してもよい。
The sensor unit 37 includes, for example, a time information acquisition unit 37a, a position information acquisition unit 37b, a posture information acquisition unit 37c, a temperature information acquisition unit 37d, a sound information acquisition unit 37e, and a speed information acquisition unit 37f. There is.
The time information acquisition unit 37a includes, for example, a receiver that receives a standard radio wave used in a radio-controlled clock or the like, and the standard time information obtained from the standard radio wave received by the receiver is used as the information indicating the imaging time as a synchronization control unit. The signal is output to the signal processing unit 14 of each of the imaging devices 10a to 10c via 30. Here, as standard radio waves, there are JJY in Japan, WWVB in the United States, MSF in the United Kingdom, DCF77 in Germany, and the like. The time information may be acquired using a time information providing service that provides time information through the Internet or a time signal of broadcasting, or the time information may be acquired using a clock incorporated in the synchronization control unit 30 or a personal computer (not shown). May be obtained.

位置情報取得部37bは、例えば、GNSS(Global Navigation Satellite System)衛星から送信される信号を受信するGNSS受信機を含んで構成される。位置情報取得部37bは、受信した信号から撮像装置10aの位置(車両200の位置)を示す位置情報を取得し、その位置情報を、撮像位置を示す情報として各撮像装置10a〜10cの信号処理部14に出力する。なお、GNSSとは、GPS(米国)、GALILEO(欧州)、CLONASS(ロシア)、準天頂衛星(日本)などの測位衛星の総称である。
姿勢情報取得部37cは、例えば、3軸加速度センサ、3軸ジャイロセンサ等の3軸センサにより構成される。姿勢情報取得部37cは、撮像装置10a(車両200)の加速度情報や角速度情報を取得し、取得した情報を、撮像姿勢を示す情報として各撮像装置10a〜10cの信号処理部14に出力する。なお、この姿勢情報取得部37cが3軸加速度センサを備える場合、3軸加速度センサの出力によって、車両200の振動を検出することができる。
The position information acquisition unit 37b includes, for example, a GNSS receiver that receives a signal transmitted from a GNSS (Global Navigation Satellite System) satellite. The position information acquisition unit 37b acquires position information indicating the position of the imaging device 10a (position of the vehicle 200) from the received signal, and uses the position information as signal indicating the imaging position of each of the imaging devices 10a to 10c. Output to the unit 14. Note that GNSS is a general term for positioning satellites such as GPS (US), GALILEO (Europe), CLONASS (Russia), and quasi-zenith satellite (Japan).
The posture information acquisition unit 37c is composed of, for example, a triaxial sensor such as a triaxial acceleration sensor or a triaxial gyro sensor. The attitude information acquisition unit 37c acquires the acceleration information and the angular velocity information of the imaging device 10a (vehicle 200), and outputs the acquired information to the signal processing unit 14 of each of the imaging devices 10a to 10c as information indicating the imaging attitude. When the posture information acquisition unit 37c includes a triaxial acceleration sensor, the vibration of the vehicle 200 can be detected by the output of the triaxial acceleration sensor.

温度情報取得部37dは、例えば車両200の周囲の温度を検出する温度センサにより構成される。あるいは、車両200が走行している路面の温度を検出する放射温度計等のセンサを用いることもできる。温度情報取得部37dは、取得した温度情報を各撮像装置10a〜10cの信号処理部14に出力する。
音情報取得部37eは、例えば車両200の周囲の騒音のレベルを検出する騒音センサにより構成される。あるいは、車両200の周囲の音を収音するマイク等を用いることもできる。音情報取得部37eは、取得した音情報を各撮像装置10a〜10cの信号処理部14に出力する。
速度情報取得部37fは、例えば車両200の車輪200w(車軸)の回転数から車両200の走行速度を検出する速度センサにより構成される。速度情報取得部37fは、取得した速度情報を各撮像装置10a〜10cの信号処理部14に出力する。
なお、時刻情報取得部37a、位置情報取得部37b及び姿勢情報取得部37cは、それぞれ時刻情報、位置情報及び姿勢情報を取得可能な構成であれば、上記の構成に限定されない。また、時刻情報取得部37a、位置情報取得部37b及び姿勢情報取得部37cは、それぞれ撮像装置10aに内蔵してもよいし、車両200に設置してもよい。例えば、姿勢情報取得部37cを車両200のサスペンションによって車体の揺れが緩衝されない位置(例えば、車輪近傍)に設置した場合、路面の僅かな変動による揺れを検出することができる。
また、温度情報取得部37d及び音情報取得部37eは、それぞれ温度情報及び音情報を取得可能な構成であれば、上記の構成に限定されず、それぞれ撮像装置10aに内蔵してもよいし、車両200に設置してもよい。
The temperature information acquisition unit 37d is composed of, for example, a temperature sensor that detects the temperature around the vehicle 200. Alternatively, a sensor such as a radiation thermometer that detects the temperature of the road surface on which the vehicle 200 is traveling can be used. The temperature information acquisition unit 37d outputs the acquired temperature information to the signal processing unit 14 of each of the imaging devices 10a to 10c.
The sound information acquisition unit 37e is composed of, for example, a noise sensor that detects the level of noise around the vehicle 200. Alternatively, a microphone or the like that picks up the sound around the vehicle 200 may be used. The sound information acquisition unit 37e outputs the acquired sound information to the signal processing unit 14 of each of the imaging devices 10a to 10c.
The speed information acquisition unit 37f is composed of, for example, a speed sensor that detects the traveling speed of the vehicle 200 from the number of rotations of the wheels 200w (axles) of the vehicle 200. The speed information acquisition unit 37f outputs the acquired speed information to the signal processing unit 14 of each of the imaging devices 10a to 10c.
The time information acquisition unit 37a, the position information acquisition unit 37b, and the posture information acquisition unit 37c are not limited to the above configurations as long as the time information, the position information, and the posture information can be respectively acquired. In addition, the time information acquisition unit 37a, the position information acquisition unit 37b, and the attitude information acquisition unit 37c may be built in the imaging device 10a or installed in the vehicle 200. For example, when the posture information acquisition unit 37c is installed at a position where the vehicle body sway is not damped by the suspension of the vehicle 200 (for example, near the wheels), sway caused by a slight change in the road surface can be detected.
Further, the temperature information acquisition unit 37d and the sound information acquisition unit 37e are not limited to the above configurations as long as the temperature information and the sound information can be respectively obtained, and may be built in the imaging device 10a. You may install in the vehicle 200.

撮像装置10a、10b、10cは、車両200のルーフに取り付けられる。撮像装置10a、10b、10cは、それぞれ約60度の画角(視野角)のデジタルビデオカメラである。撮像装置10bは、車両200の長手方向正面(進行方向)に向けられて設置されており、当該方向の左右30度ずつ(合計60度)の範囲で車両200の周辺を撮像する。撮像装置10aは、撮像装置10bの左60度の範囲で車両200の周辺を撮像する。撮像装置10cは、撮像装置10bの右60度の範囲で車両200の周辺を撮像する。従って、撮像装置10a、10b、10cは、合計で180度の撮像範囲を有することになる。なお、図示の都合上、図1では撮像装置10a、10b、10cが車両200の長手方向に並んで配置されているように描かれているが、撮像装置10a、10b、10cは、車両200の幅方向に配置されてよい。撮像装置10a、10b、10cは、同じ構造を有するので、以下の説明では、撮像装置10aを説明する。 The imaging devices 10a, 10b, 10c are attached to the roof of the vehicle 200. The imaging devices 10a, 10b, and 10c are digital video cameras each having an angle of view (viewing angle) of about 60 degrees. The imaging device 10b is installed so as to face the front (the traveling direction) of the vehicle 200 in the longitudinal direction, and images the periphery of the vehicle 200 within a range of 30 degrees to the left and right of the direction (60 degrees in total). The imaging device 10a images the periphery of the vehicle 200 within a range of 60 degrees to the left of the imaging device 10b. The imaging device 10c images the periphery of the vehicle 200 within a range of 60 degrees to the right of the imaging device 10b. Therefore, the imaging devices 10a, 10b, and 10c have an imaging range of 180 degrees in total. Note that, for convenience of illustration, although the imaging devices 10a, 10b, and 10c are illustrated as being arranged side by side in the longitudinal direction of the vehicle 200 in FIG. 1, the imaging devices 10a, 10b, and 10c are illustrated in the vehicle 200. It may be arranged in the width direction. Since the imaging devices 10a, 10b, and 10c have the same structure, the imaging device 10a will be described below.

撮像装置10aは、例えば、アスペクト比16:9の横長のハイビジョン映像を撮像するハイビジョンカメラである。これにより、アスペクト比4:3の映像に対し、人の視野に近い状態で映像を撮像することができる。撮像装置10aは、例えば車両200が所定の点検対象道路を走行しているとき、若しくは車両200が停車しているときに、当該車両200の周辺の映像を撮像する。 The image capture device 10a is, for example, a high-definition camera that captures a horizontally long high-definition image with an aspect ratio of 16:9. As a result, it is possible to capture an image having an aspect ratio of 4:3 in a state close to the human visual field. The image capturing device 10a captures an image around the vehicle 200 when the vehicle 200 is traveling on a predetermined inspection target road or when the vehicle 200 is stopped.

以下、撮像装置10a、10b、10cの構成について、撮像装置10aを例に具体的に説明する。
図3に示すように、撮像装置10aは、被写体からの光を集光するレンズ11と、撮像素子12と、撮像素子12を駆動する駆動回路13と、駆動回路13の制御や撮像素子12からの撮像信号に対する処理等を行う信号処理部14と、信号処理部14からの映像ファイルを記録する記録部15とを備えている。
撮像素子12は、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等から構成される。
駆動回路13は、信号処理部14からの同期信号に応じて撮像素子12を駆動する。
信号処理部14は、同期信号を発生する同期信号発生部14aと、撮像素子12からの信号アナログ映像信号を入力し、アナログデジタル変換等の処理を行う信号処理回路14bと、信号処理回路14bの処理結果として得られるデジタル映像信号を符号化するエンコーダ14cと、信号処理部14全体の処理を制御する制御部14dとを備えている。
Hereinafter, the configurations of the imaging devices 10a, 10b, and 10c will be specifically described by taking the imaging device 10a as an example.
As shown in FIG. 3, the image pickup apparatus 10 a includes a lens 11 that collects light from a subject, an image pickup element 12, a drive circuit 13 that drives the image pickup element 12, control of the drive circuit 13, and the image pickup element 12. A signal processing unit 14 that performs processing on the image pickup signal of 1 and the like, and a recording unit 15 that records the video file from the signal processing unit 14 are provided.
The image pickup device 12 is composed of, for example, a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor).
The drive circuit 13 drives the image sensor 12 according to the synchronization signal from the signal processing unit 14.
The signal processing unit 14 includes a synchronization signal generation unit 14a that generates a synchronization signal, a signal processing circuit 14b that inputs a signal analog video signal from the image sensor 12, and performs processing such as analog-digital conversion, and a signal processing circuit 14b. An encoder 14c that encodes a digital video signal obtained as a processing result and a control unit 14d that controls the entire processing of the signal processing unit 14 are provided.

従来の撮像装置では、撮像素子からのアナログ映像信号に対して雑音除去やアナログデジタル変換等の処理を行うAFE(Analog Front End)を設けている。このような従来の撮像装置では、本実施例の信号処理部14に相当する部分において、AFEで処理されたデジタル映像信号に対して処理を行うようになっている。AFEを用いた場合、AFEでの処理が間に合わないフレームあるいはエラーが生じたフレームに対しては、AFEから映像のないフレーム(いわゆる黒フレーム)が出力される。従来の撮像装置の信号処理部14に相当する部分では、当該黒フレームに対するデジタル映像信号を出力せずに(つまり、黒フレームを捨てる。)、次の映像のあるフレームを出力する。これにより、出力される映像信号中にフレームの欠落が生じ、実際に撮像を行った時間よりも、全てのフレームの時間を足した時間が短くなる場合がある。
また、従来の撮像装置では、本実施形態の表示装置4に相当する部分から出力されたデジタル映像信号に対して時刻情報を記録するようになっている。このため、フレームの欠落があると、このようなデジタル映像信号に基づいて映像DB1に格納されている映像ファイル1a中の特定の時刻のフレームを取り出すことが困難になる。
A conventional image pickup apparatus is provided with an AFE (Analog Front End) that performs processes such as noise removal and analog-digital conversion on an analog video signal from an image pickup element. In such a conventional image pickup apparatus, a portion corresponding to the signal processing unit 14 of the present embodiment processes the digital video signal processed by AFE. When the AFE is used, the AFE outputs a frame without a video (a so-called black frame) for a frame for which the processing by the AFE is not in time or a frame in which an error occurs. A portion corresponding to the signal processing unit 14 of the conventional image pickup device does not output the digital video signal for the black frame (that is, discards the black frame) and outputs a frame having the next video. As a result, a frame may be missing in the output video signal, and the total time of all frames may be shorter than the actual image capturing time.
Further, in the conventional image pickup device, time information is recorded in the digital video signal output from the portion corresponding to the display device 4 of the present embodiment. Therefore, if there is a missing frame, it becomes difficult to extract a frame at a specific time in the video file 1a stored in the video DB 1 based on such a digital video signal.

これに対し、本実施形態の撮像装置10a(10b、10c)では、AFEを設けず、信号処理部14側で、アナログデジタル変換等の処理を行うようにしており、黒フレームが生じた場合でも、そのまま(黒フレームを捨てることなく)デジタル映像信号として出力している。また、本実施形態の撮像装置10a(10b、10c)では、信号処理部14内で、黒フレームも含めて、全てのフレームのデジタル映像信号に時刻情報を記録している。これにより、撮像装置10aでは、フレーム欠落は生じない。よって、実際に撮像を行った時間と、全てのフレームの時間を足した時間とが等しくなる。
このため、本実施形態では、信号処理部14からのデジタル映像信号に基づいて映像DB1に格納されている映像ファイル1a中のフレーム数をカウントするだけで特定の時刻のフレームを取り出すことができるようになっている。
On the other hand, in the imaging device 10a (10b, 10c) of the present embodiment, the AFE is not provided, and the signal processing unit 14 side performs processing such as analog-to-digital conversion, and even when a black frame occurs. , Is output as it is (without discarding the black frame) as a digital video signal. Further, in the image pickup apparatus 10a (10b, 10c) of the present embodiment, the time information is recorded in the digital video signals of all the frames including the black frame in the signal processing unit 14. As a result, no frame loss occurs in the imaging device 10a. Therefore, the time when the image is actually captured is equal to the time obtained by adding the times of all the frames.
Therefore, in the present embodiment, the frame at the specific time can be taken out only by counting the number of frames in the video file 1a stored in the video DB 1 based on the digital video signal from the signal processing unit 14. It has become.

信号処理部14は、撮像素子12から得られた電気信号に所定の信号処理を施し、複数のフレーム(画像フレーム)を含む映像データを生成する。本実施形態では、撮像時刻、撮像位置、撮像時の姿勢(撮像姿勢)、振動、周囲の温度、周囲の音、車両200の走行速度などの撮像環境に関する情報(以下、「環境情報」と称す。)を、各フレームに対応付けて映像データを生成する。この映像データの生成方法については後述する。また、信号処理部14は、エンコーダを介して映像データを圧縮処理するなどにより映像ファイルを生成する。ここでの圧縮方式は、例えば、H.264、MPEG4(Moving Picture Experts Group phase4)、MJPEG(Motion-JPEG)などの規格に基づく。記録部15は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、磁気テープ等の磁気記録媒体、光ディスクや光磁気ディスク等の光/光磁気記憶媒体等の記録媒体を備えており、信号処理部14が生成した映像ファイルを記録する。 The signal processing unit 14 performs predetermined signal processing on the electric signal obtained from the image sensor 12 to generate video data including a plurality of frames (image frames). In the present embodiment, information regarding the imaging environment such as the imaging time, the imaging position, the attitude at the time of imaging (imaging attitude), vibration, ambient temperature, ambient sound, traveling speed of the vehicle 200 (hereinafter referred to as “environmental information”). .) is associated with each frame to generate video data. The method of generating this video data will be described later. The signal processing unit 14 also generates a video file by compressing the video data via an encoder. The compression method here is, for example, H.264. It is based on the standards such as H.264, MPEG4 (Moving Picture Experts Group phase4), and MJPEG (Motion-JPEG). The recording unit 15 includes a magnetic recording medium such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), and a magnetic tape, and a recording medium such as an optical/magneto-optical storage medium such as an optical disk and a magneto-optical disk. The video file generated by the processing unit 14 is recorded.

図4は、映像ファイルの一例を示している。図4に示すように、映像ファイル40は、ヘッダ部41と映像データ部42とを含んで構成されている。ヘッダ部41には、映像ファイル40のファイル名、ファイルの種類、ファイルサイズ等、映像ファイル40の構造を示すヘッダ情報(H)が含まれる。また、映像データ部42には、フレーム単位(1F,2F,…)の映像データが含まれる。映像データ部42内におけるフレームとフレームとの間には、環境情報43が、例えば数値データとして書き込まれる。環境情報43は、例えば、対応するフレームの直前に書き込む。すなわち、第2フレーム(2F)の環境情報43は、第1フレーム(1F)と第2フレーム(2F)との間に書き込む。なお、環境情報43とそれに対応するフレームとの対応付けがされていれば、環境情報43を書き込む位置は上記に限定されない。また、環境情報43は、映像データの全フレームに対して書き込んでもよいし、所定間隔で書き込んでもよい。なお、フレーム中に環境情報を書き込むようにしてもよい。 FIG. 4 shows an example of a video file. As shown in FIG. 4, the video file 40 includes a header section 41 and a video data section 42. The header portion 41 includes header information (H) indicating the structure of the video file 40, such as the file name of the video file 40, the file type, the file size, and the like. The video data section 42 also includes video data in frame units (1F, 2F,... ). The environment information 43 is written as, for example, numerical data between the frames in the video data section 42. The environment information 43 is written just before the corresponding frame, for example. That is, the environment information 43 of the second frame (2F) is written between the first frame (1F) and the second frame (2F). Note that the position where the environment information 43 is written is not limited to the above as long as the environment information 43 is associated with the corresponding frame. The environment information 43 may be written in all the frames of the video data, or may be written at predetermined intervals. The environment information may be written in the frame.

本実施形態においては、信号処理部14は、環境情報43を、映像データの再生に影響しない形で書き込む。例えば、環境情報43は、フレームごとに設けられたヘッダ(フレームヘッダ)内に格納してもよいし、フレームごとのメタデータとして格納してもよい。また、映像再生時に環境情報43が読み飛ばされるような制御コードを付加して環境情報43を書き込んでもよい。なお、映像再生時に環境情報43がコメントアウトされる形で環境情報43を書き込んでもよい。環境情報43の書き込み方法は、映像処理システム100のユーザ(例えば、車両200の乗員)が適宜設定することができる。
このように、信号処理部14は、各フレームに関連する環境情報43を書き込みながらフレーム単位で映像データ部42を順次生成していく。そして、信号処理部14は、映像データ部42の生成が完了すると、映像データ部42に対応するヘッダ部41を生成し、映像ファイル40を生成する。信号処理部14は、生成した映像ファイル40を記録部15に記録する。記録部15に記録された映像ファイルは、記録媒体若しくはネットワーク等を介して、上述の映像処理システム100に供給され、映像DB1に格納される。
In the present embodiment, the signal processing unit 14 writes the environment information 43 in a form that does not affect the reproduction of the video data. For example, the environment information 43 may be stored in a header (frame header) provided for each frame, or may be stored as metadata for each frame. Further, the environment information 43 may be written by adding a control code that causes the environment information 43 to be skipped during video reproduction. The environment information 43 may be written in such a manner that the environment information 43 is commented out when the video is reproduced. A user of the video processing system 100 (for example, an occupant of the vehicle 200) can appropriately set the method of writing the environment information 43.
In this way, the signal processing unit 14 sequentially generates the video data unit 42 in frame units while writing the environment information 43 related to each frame. Then, when the generation of the video data section 42 is completed, the signal processing section 14 generates the header section 41 corresponding to the video data section 42 and generates the video file 40. The signal processing unit 14 records the generated video file 40 in the recording unit 15. The video file recorded in the recording unit 15 is supplied to the above-described video processing system 100 via a recording medium or a network and stored in the video DB 1.

図5は、表示制御装置2のハードウェア構成の一例を示す図である。
画像処理装置20は、CPU51と、ROM52と、RAM53と、外部メモリ54と、入力部55と、出力部56と、通信I/F57と、システムバス58とを備える。
CPU51は、画像処理装置20における動作を統括的に制御するものであり、システムバス58を介して、各構成部(52〜57)を制御する。
FIG. 5 is a diagram illustrating an example of a hardware configuration of the display control device 2.
The image processing apparatus 20 includes a CPU 51, a ROM 52, a RAM 53, an external memory 54, an input unit 55, an output unit 56, a communication I/F 57, and a system bus 58.
The CPU 51 centrally controls the operation of the image processing apparatus 20, and controls each component (52 to 57) via the system bus 58.

ROM52は、CPU51が処理を実行するために必要な制御プログラム等を記憶する不揮発性メモリである。なお、当該プログラムは、外部メモリ54や着脱可能な記憶媒体(不図示)に記憶されていてもよい。
RAM53は、CPU51の主メモリ、ワークエリア等として機能する。すなわち、CPU51は、処理の実行に際してROM52から必要なプログラム等をRAM53にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
The ROM 52 is a non-volatile memory that stores control programs and the like necessary for the CPU 51 to execute processing. The program may be stored in the external memory 54 or a removable storage medium (not shown).
The RAM 53 functions as a main memory, a work area, etc. of the CPU 51. That is, the CPU 51 realizes various functional operations by loading necessary programs and the like from the ROM 52 into the RAM 53 when executing the processing and executing the programs and the like.

外部メモリ54は、例えば、CPU51がプログラムを用いた処理を行う際に必要な各種データや各種情報等を予め記憶している。また、外部メモリ54には、例えば、CPU51がプログラム等を用いた処理を行うことにより得られた各種データや各種情報等が記憶される。外部メモリ54は、SDカードやUSBメモリ等の外部記憶媒体であってもよい。また、外部メモリ54は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、磁気テープ等の磁気記録媒体、光ディスクや光磁気ディスク等の光/光磁気記憶媒体等の記憶媒体(記憶装置)であってもよい。 The external memory 54 previously stores, for example, various data and various information necessary when the CPU 51 performs processing using a program. Further, the external memory 54 stores, for example, various data and various information obtained by the CPU 51 performing processing using a program or the like. The external memory 54 may be an external storage medium such as an SD card or a USB memory. The external memory 54 is a storage medium (storage device) such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), a magnetic recording medium such as a magnetic tape, or an optical/magneto-optical storage medium such as an optical disk or a magneto-optical disk. May be

入力部55は、図1の入力装置3に相当し、キーボードやマウス等のポインティングデバイスで構成され、表示制御装置2のユーザは、入力部55を介して当該表示制御装置2に指示を与えることができるようになっている。
出力部56は、図1の表示装置4等に相当し、液晶ディスプレイ(LCD)等のモニタで構成される。
通信I/F57は、外部装置(例えば撮像装置10a〜10c等)と通信するためのインターフェースである。通信I/F57は、例えばLANインターフェースである。
システムバス58は、CPU51、ROM52、RAM53、外部メモリ54、入力部55、出力部56及び通信I/F57を通信可能に接続する。
すなわち、CPU51は、ROM52に記憶されたプログラムを実行することで、図1の表示制御装置2として機能する。
The input unit 55 corresponds to the input device 3 of FIG. 1 and is configured by a pointing device such as a keyboard and a mouse, and the user of the display control device 2 gives an instruction to the display control device 2 via the input unit 55. You can do it.
The output unit 56 corresponds to the display device 4 and the like in FIG. 1 and is configured by a monitor such as a liquid crystal display (LCD).
The communication I/F 57 is an interface for communicating with an external device (for example, the image pickup devices 10a to 10c). The communication I/F 57 is, for example, a LAN interface.
The system bus 58 communicatively connects the CPU 51, the ROM 52, the RAM 53, the external memory 54, the input unit 55, the output unit 56, and the communication I/F 57.
That is, the CPU 51 functions as the display control device 2 of FIG. 1 by executing the program stored in the ROM 52.

次に、図6のフローチャートを用いて映像処理システム100の動作を説明する。
なお映像DB1には、予め撮像システム300で撮像された映像ファイル1aが格納されているものとする。
図6の処理を開始すると、表示制御装置2は、S1において、検索情報とする環境情報の種類をユーザに選択させるための画面(選択画面)を表示させるための画像を生成し、表示装置4に表示させる。
具体的には、候補選択部2bは、表示制御部2dに、例えば図7に示すように、選択画面60の選択領域61に、「時刻」を選択する選択ボタン61aと、「位置」を選択する選択ボタン61bと、「姿勢」を選択する選択ボタン61cと、「振動」を選択する選択ボタン61dと、「温度」を選択する選択ボタン61eと、「音」を選択する選択ボタン61fと、「速度」を選択する選択ボタン61gとを表示させる。
Next, the operation of the video processing system 100 will be described with reference to the flowchart of FIG.
It is assumed that the image file 1a previously imaged by the image capturing system 300 is stored in the image DB 1.
When the processing of FIG. 6 is started, the display control device 2 generates an image for displaying a screen (selection screen) for allowing the user to select the type of environment information to be used as search information in S1, and the display device 4 To display.
Specifically, the candidate selection unit 2b selects, on the display control unit 2d, a selection button 61a for selecting "time" and a "position" in the selection area 61 of the selection screen 60 as shown in FIG. 7, for example. Selection button 61b to select, "posture" selection button 61c, "vibration" selection button 61d, "temperature" selection button 61e, "sound" selection button 61f, A selection button 61g for selecting "speed" is displayed.

ユーザはマウス3bを操作して、選択画面60に表示されているカーソル65を移動させ、所望の環境情報に対応するボタンを選択した後、決定ボタン63を指示する。ユーザの選択が指示入力部2aを介して入力されると(S2)、候補選択部2bは、表示制御部2dに、検索情報を入力する入力画面を表示させる(S3)。
具体的には、例えば検索情報の種類として「位置」が選択されている場合には、候補選択部2bは、表示制御部2dに、図8に示すような入力画面70を表示させる。この入力画面70には、地図を表示する領域71と、ユーザの指示を入力するボタン72a〜72jを表示する領域72と、環境情報を表示する領域73と、映像を表示する領域74a、74b、74cが設けられている。なお、地図を表示する領域71には、候補選択部2bが、表示制御部2dに、初期状態の位置に対応する地図を表示させる。
このような入力画面70を表示させた後、候補選択部2bは、ユーザからの検索情報の入力を待機する(S4)。
検索情報の種類として「位置」が選択されており、図8に示す入力画面70が表示されている場合には、ユーザがマウス3bを操作して、マーカの表示を指示するボタン72eを指示(クリック)すると、候補選択部2bは、表示制御部2dに、例えば図9に示すように、入力画面70の領域71内にマーカ75を表示させる。さらに、ユーザがマウス3bを操作して、所望の位置にマーカ75を移動させて地図上のあるポイントをクリックすることによって、クリックされたポイントが位置に関する検索情報となる。
あるいは、検索情報の種類として「姿勢」が選択されている場合には、例えば車両200の前後あるいは左右の傾きの値を入力させる画面を表示させ、ユーザに姿勢の値(例えば「15°」等)を入力させるようにしてもよい。すなわち、この入力された姿勢の値が検索情報となる。また、検索情報の種類として「振動」が選択されている場合には、例えば振動の値を入力させる画面を表示させ、ユーザに振動の値を入力させるようにしてもよい。また、検索情報の種類として「温度」が選択されている場合には、例えば温度の値を入力させる画面を表示させ、ユーザに温度の値を入力させるようにしてもよい。また、検索情報の種類として「音」が選択されている場合には、例えば音の値(騒音レベル)を入力させる画面を表示させ、ユーザに音の値を入力させるようにしてもよい。また、検索情報の種類として「速度」が選択されている場合には、例えば速度の値を入力させる画面を表示させ、ユーザに速度の値を入力させるようにしてもよい。
The user operates the mouse 3b to move the cursor 65 displayed on the selection screen 60, selects the button corresponding to the desired environment information, and then instructs the enter button 63. When the user's selection is input via the instruction input unit 2a (S2), the candidate selection unit 2b causes the display control unit 2d to display an input screen for inputting search information (S3).
Specifically, for example, when “position” is selected as the type of search information, the candidate selection unit 2b causes the display control unit 2d to display the input screen 70 as shown in FIG. On this input screen 70, a region 71 for displaying a map, a region 72 for displaying buttons 72a to 72j for inputting a user's instruction, a region 73 for displaying environmental information, and regions 74a, 74b for displaying images, 74c is provided. In the area 71 for displaying a map, the candidate selection unit 2b causes the display control unit 2d to display the map corresponding to the position in the initial state.
After displaying such an input screen 70, the candidate selection unit 2b waits for the user to input search information (S4).
When "position" is selected as the type of search information and the input screen 70 shown in FIG. 8 is displayed, the user operates the mouse 3b to instruct the button 72e for instructing the display of the marker ( When clicked, the candidate selection unit 2b causes the display control unit 2d to display the marker 75 in the area 71 of the input screen 70 as shown in FIG. 9, for example. Further, the user operates the mouse 3b to move the marker 75 to a desired position and clicks a certain point on the map, and the clicked point becomes search information regarding the position.
Alternatively, when “attitude” is selected as the type of search information, for example, a screen for inputting the tilt value of the vehicle 200 in the front-rear direction or the left-right direction is displayed, and the user can set the attitude value (for example, “15°”). ) May be input. That is, the value of the input posture becomes the search information. When “vibration” is selected as the type of search information, for example, a screen for inputting a vibration value may be displayed and the user may be prompted to input the vibration value. When “temperature” is selected as the type of search information, for example, a screen for inputting a temperature value may be displayed and the user may be prompted to input the temperature value. When “sound” is selected as the type of search information, for example, a screen for inputting a sound value (noise level) may be displayed and the user may be prompted to input the sound value. Further, when “speed” is selected as the type of search information, for example, a screen for inputting a speed value may be displayed and the user may be prompted to input a speed value.

S4においてユーザが検索情報を入力すると、候補選択部2bは、入力された検索情報に基づいて所定の環境情報の範囲を設定する(S5)。具体的には、検索情報として「位置」が入力されている場合には、候補選択部2bは、例えば図10に破線85で示すように、マーカ75の位置を中心とした所定の半径内の位置を所定の環境情報の範囲として設定する。なお、同図中において、位置情報81〜83は、映像DB1に格納複数の映像ファイル1aの各フレームの位置情報を地図上にプロットしたものである。
あるいは、検索情報として「姿勢」の値が入力されている場合には、例えば車両200の前後あるいは左右の傾きの値の入力値から所定の範囲を所定の環境情報の範囲として設定する。この場合には、さらに左右の傾きの値が所定の範囲にある状態が所定の時間(所定のフレーム数)継続することを所定の環境情報の範囲として設定してもよい。これにより、道路のねじれのある区間を所定の環境情報の範囲として設定することができる。また、検索情報として「振動」の値が入力されている場合には、例えば振動の値の入力値から所定の範囲を所定の環境情報の範囲として設定する。また、検索情報として「温度」の値が入力されている場合には、例えば温度の値の入力値から所定の範囲を所定の環境情報の範囲として設定する。また、検索情報として「音」の値が入力されている場合には、例えば音の値の入力値から所定の範囲あるいは所定のレベル以上を所定の環境情報の範囲として設定する。また、検索情報として「速度」の値が入力されている場合には、例えば速度の値の入力値から所定の範囲あるいは入力値から所定の速度以上を所定の環境情報の範囲として設定する。
When the user inputs search information in S4, the candidate selection unit 2b sets a predetermined range of environmental information based on the input search information (S5). Specifically, when the “position” is input as the search information, the candidate selection unit 2b, for example, as shown by the broken line 85 in FIG. The position is set as a range of predetermined environment information. In the figure, the position information 81 to 83 is the position information of each frame of the plurality of video files 1a stored in the video DB 1 plotted on a map.
Alternatively, when the value of “attitude” is input as the search information, for example, a predetermined range from the input value of the inclination value of the front and rear or the left and right of the vehicle 200 is set as the range of the predetermined environmental information. In this case, it may be set as the range of the predetermined environmental information that the state in which the value of the left and right inclination is within the predetermined range continues for a predetermined time (a predetermined number of frames). As a result, a twisted section of the road can be set as a range of predetermined environmental information. When the value of “vibration” is input as the search information, for example, a predetermined range from the input value of the vibration value is set as the predetermined range of environmental information. Further, when the value of “temperature” is input as the search information, for example, a predetermined range from the input value of the temperature value is set as the predetermined range of environmental information. Further, when the value of “sound” is input as the search information, for example, a predetermined range from the input value of the sound value or a predetermined level or more is set as the predetermined environment information range. When the value of "speed" is input as the search information, for example, a predetermined range from the input value of the speed value or a predetermined speed or more from the input value is set as the predetermined environmental information range.

上記S5において、所定の環境情報の範囲を設定すると、候補選択部2bは、映像取得部2cを介して表示すべき映像ファイル1aの候補(表示候補)を検索する(S6)。
表示すべき映像ファイル1aの候補の検索は、候補選択部2bが、映像DB1に格納されている各映像ファイル1aの環境情報と、設定した所定の環境情報の範囲とを比較して行う。具体的には、マーカ75の位置を中心とした所定の半径内が所定の環境情報の範囲として設定されている場合には、候補選択部2bは、映像ファイル1a内の位置情報がマーカ75の位置から所定の距離以内にあるか否かを判断し、マーカ75の位置から所定の距離以内にある位置情報を有する映像ファイル1aを表示候補として選択する。
また、他の所定の環境情報の範囲が設定されている場合には、候補選択部2bは、各映像ファイル1aの環境情報と設定された所定の環境情報の範囲とを比較して、表示候補を選択する。
表示候補を選択すると、候補選択部2bは、表示候補の映像データをユーザに提示する。具体的には、候補選択部2bは、表示制御部2dに指示して、選択した表示候補を表示装置4に表示させる(S7)。具体的には、マーカ75の位置から所定の距離以内にある位置情報を有する映像ファイル1aが表示候補として選択されている場合には、例えば図11に示すように、候補選択部2bは、地図を表示させる領域71に表示されている地図に重畳させて、表示候補の映像ファイル1aの位置情報81、82を表示させる。なお、図10中の位置情報83は、破線85の範囲内にないため、表示候補に入らない。よって、図11の領域71には、位置情報81〜83のうちの位置情報81、82のみが表示される。
なお、候補選択部2bは、マーカ75の位置が領域71の中心付近になるように地図を移動させる。また、この場合の位置情報81、82は、各表示候補の映像ファイル1aの各フレームの位置情報をプロットした線として表示している。
なお、表示候補の映像ファイル1aが複数ある場合には、視認性の向上のため、各々の映像ファイル1aの位置情報の表示態様(色、線種等)を異ならせてもよい。図11の例では、2つある映像ファイル1aの位置情報81、82を異なる線種で表示させている。また、表示候補の映像ファイル1aの位置情報81、82軌跡を表示させる代わりに、例えば図12に示すように、表示候補の映像ファイル1aをリスト形式で表示させるウィンドウ76を表示させてもよい。候補選択部2bは、このウィンドウ76内の表示領域76 a、76bに、各表示候補の映像ファイル1aの時刻情報、位置情報等の環境情報を表示させる。なお、このウィンドウ76内の並び順は、例えば映像ファイル1aが有する位置情報がマーカ75の位置に近い順とする。あるいは、映像ファイル1aが有する時刻情報が新しい順としてもよい。
また、他の所定の環境情報の範囲に応じて表示候補の映像ファイル1aが選択された場合には、例えば図12と同様のリスト形式で表示してもよいし、図11と同様に映像ファイル1aの位置情報を地図に重畳させて表示してもよい。
When the range of the predetermined environment information is set in S5, the candidate selection unit 2b searches for candidates (display candidates) of the video file 1a to be displayed via the video acquisition unit 2c (S6).
The search for the candidates of the video file 1a to be displayed is performed by the candidate selection unit 2b by comparing the environment information of each video file 1a stored in the video DB 1 with the set range of the predetermined environment information. Specifically, when a predetermined radius centered on the position of the marker 75 is set as the range of the predetermined environment information, the candidate selection unit 2b determines that the position information in the video file 1a is the marker 75. It is determined whether or not it is within a predetermined distance from the position, and the video file 1a having the position information within the predetermined distance from the position of the marker 75 is selected as a display candidate.
When another predetermined environment information range is set, the candidate selection unit 2b compares the environment information of each video file 1a with the set predetermined environment information range to display candidates. Select.
When the display candidate is selected, the candidate selection unit 2b presents the video data of the display candidate to the user. Specifically, the candidate selection unit 2b instructs the display control unit 2d to display the selected display candidate on the display device 4 (S7). Specifically, when a video file 1a having position information within a predetermined distance from the position of the marker 75 is selected as a display candidate, the candidate selection unit 2b displays a map as shown in FIG. 11, for example. The position information 81, 82 of the video file 1a of the display candidate is displayed by being superimposed on the map displayed in the area 71 for displaying. Note that the position information 83 in FIG. 10 does not fall within the range of the broken line 85 and therefore does not enter the display candidates. Therefore, in the area 71 of FIG. 11, only the position information 81 and 82 of the position information 81 to 83 is displayed.
The candidate selection unit 2b moves the map so that the position of the marker 75 is near the center of the area 71. Further, the position information 81 and 82 in this case is displayed as a line in which the position information of each frame of the video file 1a of each display candidate is plotted.
When there are a plurality of display candidate video files 1a, the display mode (color, line type, etc.) of the position information of each video file 1a may be different in order to improve the visibility. In the example of FIG. 11, the position information 81 and 82 of the two video files 1a are displayed in different line types. Further, instead of displaying the position information 81, 82 of the display candidate video file 1a, for example, as shown in FIG. 12, a window 76 for displaying the display candidate video file 1a in a list format may be displayed. The candidate selection unit 2b causes the display areas 76a and 76b in the window 76 to display environmental information such as time information and position information of the video file 1a of each display candidate. The order of arrangement in the window 76 is, for example, the order in which the position information included in the video file 1a is closer to the position of the marker 75. Alternatively, the time information included in the video file 1a may be in ascending order.
Further, when the display candidate video file 1a is selected according to the range of other predetermined environment information, it may be displayed in a list format similar to that shown in FIG. 12, or similar to FIG. The position information of 1a may be displayed by being superimposed on the map.

この後、候補選択部2bは、ユーザが表示候補の映像ファイル1aのいずれかを選択するのを待機する(S8)。
ユーザが表示候補のいずれかの映像ファイル1aを選択すると、候補選択部2bは、映像取得部2cを介して当該選択された映像ファイル1aを取得し、表示制御部2dを介して当該映像ファイル1aのマーカ75に最も近い位置の位置情報に対応するフレームの画像を表示させる(S9)。具体的には、例えば図13に示すように、撮像装置10a、10b、10cで撮像された映像ファイル1aを同期させて、各々映像を表示する領域74a、74b、74cに表示させる。すなわち、撮像装置10a、10b、10cで同時に撮像された映像ファイル1aのいずれか(例えば撮像装置10bで撮像された映像ファイル1a)が選択され、候補選択部2bが、当該映像ファイル1aの所定のフレームの画像を表示させると共に、当該映像ファイル1a内の表示させているフレームに対応する時刻情報を用いて、同時に撮像された他の映像ファイル1aの同じ時刻情報を有するフレームの画像(撮像装置10a、10cで撮像された映像ファイル1aのフレームの画像)を表示させる。
また、表示制御部2dは、当該フレームに対応する位置情報の位置にマーカ75’を表示させる。さらに、候補選択部2bは、表示制御部2dを介して、現在表示させている映像ファイル1aのフレームに対応する環境情報を領域73内にさせる。
この後、表示制御部2dは、ユーザからの指示に応じて映像ファイル1aの表示を制御する。例えばユーザがボタン72gを指示すると、映像ファイル1aの再生を開始する。あるいは、ユーザがボタン72fを指示すると、映像ファイル1aの巻き戻しを実行する。また、ユーザがボタン72hを指示すると、映像ファイル1aの早送りを実行する。
表示制御部2dは、映像ファイル1aの再生に応じて領域71の位置を変更し、現在再生中のフレームに対応する位置情報に対応する地図上の位置が領域71の中央になるように地図を移動させる。
表示制御部2dは、以上のような処理をユーザから終了の指示があるまで継続する(S10)。あるいは、映像ファイル1aの再生が終了した時点で、処理を終了する。
なお、S6で得られた表示候補が1つである場合には、S8の処理を実行せずにS9の処理を実行するようにしてもよい。
After that, the candidate selection unit 2b waits for the user to select any of the display candidate video files 1a (S8).
When the user selects one of the display candidate video files 1a, the candidate selection unit 2b acquires the selected video file 1a via the video acquisition unit 2c and the video file 1a via the display control unit 2d. The image of the frame corresponding to the position information of the position closest to the marker 75 is displayed (S9). Specifically, for example, as shown in FIG. 13, the image files 1a captured by the image capturing devices 10a, 10b, and 10c are synchronized and displayed in the areas 74a, 74b, and 74c for displaying images, respectively. That is, one of the video files 1a simultaneously imaged by the imaging devices 10a, 10b, and 10c (for example, the video file 1a captured by the imaging device 10b) is selected, and the candidate selection unit 2b selects a predetermined one of the video files 1a. While displaying the image of the frame, by using the time information corresponding to the displayed frame in the video file 1a, the image of the frame having the same time information of the other video file 1a captured at the same time (imaging device 10a The image of the frame of the video file 1a captured at 10c) is displayed.
The display control unit 2d also displays the marker 75' at the position of the position information corresponding to the frame. Further, the candidate selection unit 2b causes the display control unit 2d to set the environment information corresponding to the frame of the video file 1a currently displayed in the area 73.
After that, the display control unit 2d controls the display of the video file 1a according to an instruction from the user. For example, when the user instructs the button 72g, the reproduction of the video file 1a is started. Alternatively, when the user instructs the button 72f, the video file 1a is rewound. When the user instructs the button 72h, the video file 1a is fast-forwarded.
The display control unit 2d changes the position of the area 71 according to the reproduction of the video file 1a, and displays the map so that the position on the map corresponding to the position information corresponding to the frame currently being reproduced is in the center of the area 71. To move.
The display control unit 2d continues the above-described processing until the user gives an instruction to end (S10). Alternatively, the process ends when the reproduction of the video file 1a ends.
If the number of display candidates obtained in S6 is one, the process of S9 may be executed without executing the process of S8.

本実施形態では、上述のように、ユーザが入力した検索情報に該当する映像ファイル1aを表示すべき候補としてユーザに提示し、提示した候補からユーザが再生すべき映像ファイル1aの選択を行っているため、再生すべき映像の選択を容易に行うことができる。 In the present embodiment, as described above, the video file 1a corresponding to the search information input by the user is presented to the user as a candidate to be displayed, and the video file 1a to be reproduced by the user is selected from the presented candidates. Therefore, it is possible to easily select the video to be reproduced.

(第2の実施形態)
本発明の第2の実施形態に係る映像処理システム100は、図1と同様に構成されている。
第1の実施形態では、入力された検索情報に基づいて所定の環境情報の範囲を設定し、設定した所定の範囲内の環境情報を有する映像ファイルを表示候補として選択し、表示候補の映像ファイルをユーザに提示し、提示した表示候補の映像ファイルから選択された映像ファイルを表示させるようにしていた。
これに対し、第2の実施形態では、地図上の位置を入力し、当該位置から所定の距離以内にある位置情報を有する映像ファイルを表示させるようにしている。
本実施形態の映像処理システム100では、例えば図14に示すように、まず、候補選択部2bが、図8と同様の入力画面を表示させ(S11)、ユーザからの位置入力を待機する(S12)。
まず、ユーザがマウス3bを操作して、マーカの表示を指示するボタン72eを指示(クリック)すると、候補選択部2bは、表示制御部2dに、図9と同様に、入力画面70の領域71内にマーカ75を表示させる。さらに、ユーザがマウス3bを操作して、所望の位置にマーカ75を移動させて地図上のあるポイントをクリックすると、クリックされたポイントが位置に関する検索情報として入力される。
ユーザが位置を入力すると、候補選択部2bは、映像取得部2cを介して表示すべき映像ファイル1aの候補(表示候補)を検索する(S13)。
具体的には、候補選択部2bは、マーカ75の位置から一番近い位置情報を有する映像ファイル1aを1つだけ表示候補として選択する。
この後、候補選択部2bは、表示制御部2dに、表示候補の映像ファイル1aを表示させる(S14)。
具体的には、候補選択部2bは、例えば図15に示すように、表示制御部2dに、表示させる映像ファイル1aの所定のフレームの画像を表示させると共に、当該フレームの位置情報に対応する地図上の位置にマーカ75’を表示させる。
この後の表示制御部2dによる表示制御は、第1の実施形態と同様であり、表示制御部2dは、ユーザから終了の指示があるまで表示制御を継続する(S15)。
なお、S14において、映像ファイル1aの表示を行うと共に、図11と同様に、表示候補の映像データ1aの位置情報を重畳させて表示させておき、ユーザからの指示に応じて候補選択部2bが表示する映像ファイル1aを切り替えるようにしてもよい。
(Second embodiment)
The video processing system 100 according to the second embodiment of the present invention has the same configuration as that of FIG.
In the first embodiment, a range of predetermined environment information is set based on the input search information, a video file having environment information within the set predetermined range is selected as a display candidate, and the video file of the display candidate is selected. Was presented to the user, and the video file selected from the presented display candidate video files was displayed.
On the other hand, in the second embodiment, a position on the map is input and a video file having position information within a predetermined distance from the position is displayed.
In the image processing system 100 of the present embodiment, as shown in FIG. 14, for example, first, the candidate selection unit 2b displays the same input screen as in FIG. 8 (S11) and waits for the position input from the user (S12). ).
First, when the user operates the mouse 3b to instruct (click) the button 72e for instructing the display of the marker, the candidate selecting unit 2b causes the display control unit 2d to display the area 71 of the input screen 70 as in FIG. The marker 75 is displayed inside. Furthermore, when the user operates the mouse 3b to move the marker 75 to a desired position and clicks a point on the map, the clicked point is input as search information regarding the position.
When the user inputs the position, the candidate selection unit 2b searches for candidates (display candidates) of the video file 1a to be displayed via the video acquisition unit 2c (S13).
Specifically, the candidate selection unit 2b selects only one video file 1a having position information closest to the position of the marker 75 as a display candidate.
After that, the candidate selection unit 2b causes the display control unit 2d to display the display candidate video file 1a (S14).
Specifically, the candidate selection unit 2b causes the display control unit 2d to display an image of a predetermined frame of the video file 1a to be displayed and a map corresponding to the position information of the frame, as shown in FIG. 15, for example. The marker 75' is displayed at the upper position.
The subsequent display control by the display control unit 2d is similar to that of the first embodiment, and the display control unit 2d continues the display control until the user gives an instruction to end (S15).
Note that, in S14, the video file 1a is displayed and the position information of the video data 1a of the display candidate is superimposed and displayed in the same manner as in FIG. 11, and the candidate selection unit 2b operates according to the instruction from the user. The video file 1a to be displayed may be switched.

この実施形態では、ユーザが地図上の位置を入力するだけで、入力した位置から最も近い位置情報を有する映像ファイルを表示させることができるため、再生すべき映像の選択を容易に行うことができると共に、ユーザの入力負担を小さくすることができる。 In this embodiment, the user can input the position on the map and display the video file having the position information closest to the input position, so that the video to be reproduced can be easily selected. At the same time, the input load on the user can be reduced.

(変形例)
上記実施形態においては、撮像環境に関する環境情報として、撮像時刻、撮像位置および撮像姿勢等を記録する場合について説明したが、環境情報には少なくとも撮像時刻を含んでいればよい。また環境情報として、例えば撮像時の速度に関する情報や、撮像時の音に関する情報などを含んでもよい。また、撮像時の音(音声データ)は、各フレーム1F、2F、3Fに含まれてもよい。
また、上記実施形態においては、撮像装置10a〜10cを車両200に設置する場合について説明したが、これに限定されるものではない。例えば、車両以外の移動体(ラジコン、ドローン(無人航空機)、ヘリコプターなど)に撮像装置10a〜10cを設置してもよいし、路肩等に撮像装置10を固定してもよい。さらに、撮像装置10a〜10cは、店舗や施設等に設置することもできる。この場合、映像処理システム100は、店舗や施設内を監視する監視システムとして機能させることができる。また、撮像装置10a〜10cは、人が携帯してもよい。
(Modification)
In the above embodiment, the case where the image capturing time, the image capturing position, the image capturing attitude, and the like are recorded as the environment information regarding the image capturing environment has been described, but the environment information may include at least the image capturing time. Further, the environment information may include, for example, information regarding speed at the time of image capturing, information regarding sound at the time of image capturing, and the like. Further, the sound (voice data) at the time of image capturing may be included in each frame 1F, 2F, 3F.
Moreover, although the case where the imaging devices 10a to 10c are installed in the vehicle 200 has been described in the above embodiment, the present invention is not limited to this. For example, the imaging devices 10a to 10c may be installed in a moving body (radio control, drone (unmanned aerial vehicle), helicopter, etc.) other than the vehicle, or the imaging device 10 may be fixed to a road shoulder or the like. Furthermore, the imaging devices 10a to 10c can be installed in stores, facilities, and the like. In this case, the video processing system 100 can function as a monitoring system that monitors the inside of a store or facility. Further, the imaging devices 10a to 10c may be carried by a person.

また、上記実施形態においては、映像処理システム100と撮像システム300を別個に設けた構成について説明したが、映像処理システム100と撮像システム300をひとつの装置あるいはシステムとして構成してもよい。
また、上記実施形態においては、表示制御装置2において、画像検索処理で検索したフレームを表示部に表示する場合について説明したが、検索したフレームを記録媒体に記録したり、サーバ装置へ転送したりするようにしてもよい。
なお、上記実施形態における表示制御装置2で実行されるプログラムは、インストール可能なファイル形式または実行可能なファイル形式で、コンピュータが読み取り可能な記憶媒体に記憶されて提供されてもよい。また、上記実施形態における表示制御装置2で実行されるプログラムは、インターネット等のネットワーク経由で提供されてもよい。
以上、本発明の実施形態について詳細に説明したが、上述した実施形態は、本発明を実施するにあたっての一例を示したにすぎず、本発明の技術的範囲は、上述した実施形態に限定されるものではない。本発明は、その趣旨を逸脱しない範囲において種々の修正又は変更が可能である。
Further, in the above embodiment, the configuration in which the video processing system 100 and the imaging system 300 are separately provided has been described, but the video processing system 100 and the imaging system 300 may be configured as one device or system.
Further, in the above embodiment, the case where the display control device 2 displays the frame searched by the image search processing on the display unit has been described. However, the searched frame is recorded in a recording medium or transferred to the server device. You may do so.
The program executed by the display control device 2 in the above embodiment may be provided by being stored in a computer-readable storage medium in an installable file format or an executable file format. Further, the program executed by the display control device 2 in the above embodiment may be provided via a network such as the Internet.
Although the embodiments of the present invention have been described in detail above, the above-described embodiments are merely examples for implementing the present invention, and the technical scope of the present invention is limited to the above-described embodiments. Not something. The present invention can be modified or changed in various ways without departing from the spirit thereof.

また、第1の実施形態において、複数の表示候補の映像ファイル1aがある場合の並び順を選択できるようにしてもよい。この場合は、図7の選択画面の代わりに、例えば図16に示すように、複数の環境情報を選択し得る選択画面を表示させる。
複数の環境情報は、例えば「第1キー」、「第2キー」とし、候補選択部2bは、各々の種類を入力させる。さらに、候補選択部2bは、「第1キー」に基づいて上述の所定の環境情報の範囲を設定して表示候補を選択し、表示候補を提示するときに、「第2キー」に基づいて表示候補の並び順として、表示候補の提示を行う。
また、表示候補となるべき映像ファイル1aを予めある程度選択しておいてから、図6の処理を実行するようにしてもよい。例えば、映像ファイル1aの撮像位置に対応する都道府県を示す情報を記録しておき、検索情報として都道府県名を入力した際に、入力された都道府県名に対応する映像ファイル1aのみを検索対象とすることによって、検索時間を短縮することができる。
Also, in the first embodiment, the arrangement order may be selected when there are a plurality of display candidate video files 1a. In this case, instead of the selection screen of FIG. 7, a selection screen for selecting a plurality of environment information is displayed as shown in FIG. 16, for example.
The plurality of pieces of environment information are, for example, “first key” and “second key”, and the candidate selection unit 2b inputs each type. Further, the candidate selection unit 2b sets the range of the predetermined environment information based on the "first key" to select the display candidate, and when presenting the display candidate, based on the "second key". The display candidates are presented as the arrangement order of the display candidates.
Further, the image file 1a to be a display candidate may be selected in advance to some extent, and then the process of FIG. 6 may be executed. For example, when the information indicating the prefecture corresponding to the imaging position of the video file 1a is recorded and the prefecture name is input as the search information, only the video file 1a corresponding to the input prefecture name is searched. By doing so, the search time can be shortened.

1…映像DB、2…表示制御装置、2a…指示入力部、2b…候補選択部、2c…映像取得部、2d…表示制御部、3…入力装置、4…表示装置、10a、10b、10c…撮像装置、30…同期制御部、37…センサ部 1... Image DB, 2... Display control device, 2a... Instruction input part, 2b... Candidate selection part, 2c... Image acquisition part, 2d... Display control part, 3... Input device, 4... Display device, 10a, 10b, 10c ... image pickup device, 30... synchronization control unit, 37... sensor unit

Claims (9)

高速道路の点検に用いられる映像処理装置であって、
前記高速道路を走行しながら撮像を行うことにより得られる映像データであって、所定のフレーム毎に前記高速道路の位置情報が記録された少なくとも1つの高速道路の映像データを保持するデータ保持手段と、
前記高速道路と前記高速道路以外の道路とが描画されている地図画像を表示部に表示する地図表示手段と、
前記地図画像上でクリック入力を受け付ける入力手段と、
前記地図画像上でクリック入力されたポイントから所定範囲内の位置情報を有する前記高速道路の映像データを、前記地図画像と共に前記表示部に再生表示する表示制御手段と、
を備えることを特徴とする映像処理装置。
An image processing device used for inspection of highways,
Data holding means for holding at least one image data of the highway , which is image data obtained by imaging while traveling on the highway and in which position information of the highway is recorded for each predetermined frame; ,
Map display means for displaying on the display unit a map image in which the highway and roads other than the highway are drawn;
Input means for accepting a click input on the map image,
Display control means for reproducing and displaying video data of the highway having position information within a predetermined range from a point clicked on the map image on the display unit together with the map image,
An image processing apparatus comprising:
前記表示制御手段は、前記所定範囲内で、前記クリック入力されたポイントから最も近い位置情報を有する高速道路の映像データを前記表示部に再生表示することを特徴とする請求項1に記載の映像処理装置。 The video according to claim 1, wherein the display control means reproduces and displays video data of an expressway having position information closest to the clicked point within the predetermined range on the display unit. Processing equipment. クリック入力したポイントから所定の距離以内にある領域を前記所定範囲として設定する設定手段をさらに備える
ことを特徴とする請求項1又は2に記載の映像処理装置。
The video processing apparatus according to claim 1 or 2, characterized in <br/> that the region of the point where the previous SL click input within a predetermined distance further comprising setting means for setting as the predetermined range.
前記所定範囲内の位置情報を有する前記高速道路の映像データが複数ある場合、当該複数の映像データに関する文字情報または線図を、再生表示候補として前記表示部に提示する提示手段をさらに備えることを特徴とする請求項1〜のいずれか1項に記載の映像処理装置。 When there are a plurality of video data of the expressway having position information within the predetermined range, it is further provided with a presenting means for presenting character information or a diagram regarding the plurality of video data to the display unit as a reproduction display candidate. the video processing apparatus according to any one of claims 1 to 3, characterized. 前記提示手段は、前記再生表示候補の映像データが複数ある場合、前記線図毎に異なる表示形態で提示させる
ことを特徴とする請求項4に記載の映像処理装置。
It said presenting means, when the video data of the reproduction display candidates have multiple video processing apparatus according to claim 4, characterized in that to present a different display form for each of the diagrams.
前記表示制御手段は、前記映像データの再生表示が開始されると、前記映像データの前記フレームに記録されている位置情報に基づいて、再生表示されている前記フレームが前記高速道路のどの位置のフレームであるかを示すマーカを前記地図画像上に表示することを特徴とする請求項1〜5のいずれか1項に記載の映像処理装置。When the reproduction display of the video data is started, the display control means determines which position of the expressway the frame being reproduced and displayed is based on the position information recorded in the frame of the video data. The video processing device according to claim 1, wherein a marker indicating whether the frame is a frame is displayed on the map image. 前記地図表示手段は、前記映像データの再生表示に応じて前記地図画像を移動させることを特徴とする請求項1〜6のいずれか1項に記載の映像処理装置。7. The video processing device according to claim 1, wherein the map display means moves the map image in accordance with reproduction display of the video data. 所定のフレーム毎に高速道路の位置情報が記録された少なくとも1つの高速道路の映像データを使用して、前記高速道路の点検に用いられる映像を再生する映像処理方法であって、前記映像データは前記高速道路を走行しながら撮像を行うことにより得られる映像データであり、前記映像処理方法は、
前記高速道路と前記高速道路以外の道路とが描画されている地図画像を表示部に表示するステップと、
前記地図画像上でクリック入力を受け付けるステップと、
前記地図画像上でクリック入力されたポイントから所定範囲内の位置情報を有する前記高速道路の映像データを、前記地図画像と共に前記表示部上に再生表示するステップと、
を備えることを特徴とする映像処理方法。
A video processing method for reproducing a video used for inspection of the highway by using video data of at least one highway in which position information of the highway is recorded for each predetermined frame, wherein the video data is Video data obtained by imaging while traveling on the highway, the video processing method,
Displaying on the display unit a map image in which the highways and roads other than the highways are drawn;
Receiving a click input on the map image,
A step of reproducing and displaying video data of the highway having position information within a predetermined range from a point click-input on the map image on the display unit together with the map image;
An image processing method comprising:
前記再生表示するステップは、前記所定範囲内で、前記クリック入力されたポイントから最も近い位置情報を有する高速道路の映像データを前記表示部に再生表示することを特徴とする請求項8に記載の映像処理方法。 The replay display step replays and displays on the display unit video data of an expressway having position information closest to the clicked point within the predetermined range. Video processing method.
JP2019231011A 2019-12-23 2019-12-23 Video processing apparatus and video processing method Active JP6721915B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019231011A JP6721915B1 (en) 2019-12-23 2019-12-23 Video processing apparatus and video processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019231011A JP6721915B1 (en) 2019-12-23 2019-12-23 Video processing apparatus and video processing method

Publications (2)

Publication Number Publication Date
JP6721915B1 true JP6721915B1 (en) 2020-07-15
JP2021100188A JP2021100188A (en) 2021-07-01

Family

ID=71523886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019231011A Active JP6721915B1 (en) 2019-12-23 2019-12-23 Video processing apparatus and video processing method

Country Status (1)

Country Link
JP (1) JP6721915B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022219729A1 (en) * 2021-04-14 2022-10-20 中日本高速道路株式会社 Image data collection system for expressway inspection

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4068656B1 (en) * 2006-12-12 2008-03-26 アジア航測株式会社 Geographic information association image data management system and geographic information association image data management program
JP2007179553A (en) * 2007-01-15 2007-07-12 Matsushita Electric Ind Co Ltd Image information providing system
JP5901825B1 (en) * 2015-06-04 2016-04-13 株式会社ファンクリエイト Video processing apparatus and video processing method
JP2017228074A (en) * 2016-06-22 2017-12-28 株式会社日立国際電気 Video recording system and video display method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022219729A1 (en) * 2021-04-14 2022-10-20 中日本高速道路株式会社 Image data collection system for expressway inspection
JP7179437B1 (en) * 2021-04-14 2022-11-29 中日本高速道路株式会社 Image data collection system for expressway inspection

Also Published As

Publication number Publication date
JP2021100188A (en) 2021-07-01

Similar Documents

Publication Publication Date Title
US20240362737A1 (en) Image capturing method and display method for recognizing a relationship among a plurality of images displayed on a display screen
JP5948465B1 (en) Video processing system and video processing method
US8994785B2 (en) Method for generating video data and image photographing device thereof
US8756009B2 (en) Portable apparatus
US20080030580A1 (en) Command system, imaging device, command device, imaging method, command processing method, and program
US9269191B2 (en) Server, client terminal, system and program for presenting landscapes
JP5803723B2 (en) Structure inspection support method, structure inspection support program, and structure inspection support device
US20110234817A1 (en) Image capturing terminal, external terminal, image capturing system, and image capturing method
US20090256919A1 (en) Imaging device, captured image recording method, and program
JP2008039628A (en) Route retrieval device
JP5901825B1 (en) Video processing apparatus and video processing method
US9635234B2 (en) Server, client terminal, system, and program
JP2009162722A (en) Guidance device, guidance technique, and guidance program
JP4352332B2 (en) Image scoring method and image scoring system
JP6721915B1 (en) Video processing apparatus and video processing method
JP7048357B2 (en) Pre-confirmation system for captured images and pre-confirmation method for captured images
JP2009058255A (en) Laser isolation measuring system
JP6634502B2 (en) Image processing apparatus, image processing method, and image processing program
JP2021068994A (en) Search method of driving route
JP2016086200A (en) Image synthesis device and image synthesis program
JP6639832B2 (en) Imaging device, imaging method, imaging program
WO2020162264A1 (en) Photographing system, photographing spot setting device, photographing device, and photographing method
JP2011188054A (en) Image photographing device capable of using position information, image photographing method, and program
JP5206445B2 (en) MOVIE DISPLAY DEVICE, PROGRAM, AND IMAGING DEVICE
JP5024181B2 (en) Imaging apparatus, image display method, and image display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200109

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200109

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200611

R150 Certificate of patent or registration of utility model

Ref document number: 6721915

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250