JP6099026B1 - MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM - Google Patents
MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM Download PDFInfo
- Publication number
- JP6099026B1 JP6099026B1 JP2016139531A JP2016139531A JP6099026B1 JP 6099026 B1 JP6099026 B1 JP 6099026B1 JP 2016139531 A JP2016139531 A JP 2016139531A JP 2016139531 A JP2016139531 A JP 2016139531A JP 6099026 B1 JP6099026 B1 JP 6099026B1
- Authority
- JP
- Japan
- Prior art keywords
- camera
- video
- image
- mask
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 102
- 238000000034 method Methods 0.000 title claims description 390
- 238000004590 computer program Methods 0.000 title claims description 6
- 238000012545 processing Methods 0.000 claims abstract description 442
- 238000003860 storage Methods 0.000 claims abstract description 159
- 238000003384 imaging method Methods 0.000 claims abstract description 128
- 230000004044 response Effects 0.000 claims abstract description 36
- 230000010365 information processing Effects 0.000 claims abstract description 29
- 230000008569 process Effects 0.000 claims description 267
- 238000004458 analytical method Methods 0.000 abstract description 22
- 238000010586 diagram Methods 0.000 description 56
- 230000006870 function Effects 0.000 description 48
- 238000009826 distribution Methods 0.000 description 44
- 102100031437 Cell cycle checkpoint protein RAD1 Human genes 0.000 description 43
- 101001130384 Homo sapiens Cell cycle checkpoint protein RAD1 Proteins 0.000 description 43
- 230000000873 masking effect Effects 0.000 description 39
- 238000004891 communication Methods 0.000 description 20
- 230000008859 change Effects 0.000 description 18
- 230000033001 locomotion Effects 0.000 description 14
- 101100365087 Arabidopsis thaliana SCRA gene Proteins 0.000 description 12
- 101000855847 Mus musculus Cytohesin-3 Proteins 0.000 description 12
- 102100033934 DNA repair protein RAD51 homolog 2 Human genes 0.000 description 11
- 101001132307 Homo sapiens DNA repair protein RAD51 homolog 2 Proteins 0.000 description 11
- 101100412103 Arabidopsis thaliana REC3 gene Proteins 0.000 description 10
- 102100029380 CMRF35-like molecule 2 Human genes 0.000 description 10
- 101100528972 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) RPD3 gene Proteins 0.000 description 10
- 108010036356 cytohesin-2 Proteins 0.000 description 10
- 238000007726 management method Methods 0.000 description 10
- 101000945096 Homo sapiens Ribosomal protein S6 kinase alpha-5 Proteins 0.000 description 8
- 102100033645 Ribosomal protein S6 kinase alpha-5 Human genes 0.000 description 8
- 102220575589 Synaptotagmin-13_S97A_mutation Human genes 0.000 description 7
- 230000006399 behavior Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 238000001454 recorded image Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- AJICOSVECOHRCM-UHFFFAOYSA-N 2-[2-[2-[2-[bis(carboxymethyl)amino]-5-[2-(3-ethyl-1,3-benzothiazol-3-ium-2-yl)ethenyl]phenoxy]ethoxy]-n-(carboxymethyl)-4-methylanilino]acetic acid;iodide Chemical compound [I-].S1C2=CC=CC=C2[N+](CC)=C1\C=C\C(C=1)=CC=C(N(CC(O)=O)CC(O)=O)C=1OCCOC1=CC(C)=CC=C1N(CC(O)=O)CC(O)=O AJICOSVECOHRCM-UHFFFAOYSA-N 0.000 description 5
- 102220507716 Neurosecretory protein VGF_S93A_mutation Human genes 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000009434 installation Methods 0.000 description 5
- 102220638235 E3 ubiquitin-protein ligase RFWD3_S95A_mutation Human genes 0.000 description 4
- 101100384033 Mus musculus Cd300ld gene Proteins 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 230000006866 deterioration Effects 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 102220560888 Aldehyde dehydrogenase family 16 member A1_S34A_mutation Human genes 0.000 description 3
- 102220561477 Aldehyde dehydrogenase family 16 member A1_S85A_mutation Human genes 0.000 description 3
- 102220561414 Aldehyde dehydrogenase family 16 member A1_S88A_mutation Human genes 0.000 description 3
- 101100384031 Mus musculus Cd300c2 gene Proteins 0.000 description 3
- 102220472113 Transmembrane protein_S67A_mutation Human genes 0.000 description 3
- 101100438139 Vulpes vulpes CABYR gene Proteins 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000012806 monitoring device Methods 0.000 description 3
- 102220560887 Aldehyde dehydrogenase family 16 member A1_S36A_mutation Human genes 0.000 description 2
- 102100031264 Choriogonadotropin subunit beta variant 1 Human genes 0.000 description 2
- 101000776621 Homo sapiens Choriogonadotropin subunit beta variant 1 Proteins 0.000 description 2
- 102220624468 Phospholemman_S83A_mutation Human genes 0.000 description 2
- 102220534543 Pseudouridylate synthase 7 homolog-like protein_S35A_mutation Human genes 0.000 description 2
- 102220490404 S-adenosylhomocysteine hydrolase-like protein 1_S66A_mutation Human genes 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000011835 investigation Methods 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- CDFKCKUONRRKJD-UHFFFAOYSA-N 1-(3-chlorophenoxy)-3-[2-[[3-(3-chlorophenoxy)-2-hydroxypropyl]amino]ethylamino]propan-2-ol;methanesulfonic acid Chemical compound CS(O)(=O)=O.CS(O)(=O)=O.C=1C=CC(Cl)=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC(Cl)=C1 CDFKCKUONRRKJD-UHFFFAOYSA-N 0.000 description 1
- 102100029390 CMRF35-like molecule 1 Human genes 0.000 description 1
- 101000990055 Homo sapiens CMRF35-like molecule 1 Proteins 0.000 description 1
- 101000870135 Mus musculus Cytohesin-1 Proteins 0.000 description 1
- 102220491409 Protein phosphatase 1 regulatory subunit 12C_S33A_mutation Human genes 0.000 description 1
- 102220491416 Protein phosphatase 1 regulatory subunit 12C_S91A_mutation Human genes 0.000 description 1
- 102220468073 Trafficking protein particle complex subunit 5_S52A_mutation Human genes 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】モニタへの表示対象となる監視カメラの撮像映像の切り替えがあっても、選択された撮像映像の非表示を抑制した上でマスク処理を適切に施し、ユーザの監視業務の効率やマーケティング分析精度の向上を図る。【解決手段】情報処理装置は、個々のカメラから配信された各撮像映像の背景画像を生成して記憶部に保存し、第1カメラから配信された撮像エリアの撮像映像、又は撮像映像に現れる移動体をマスク画像に変更するためのマスク処理を行って得た第1編集映像をモニタに表示する。情報処理装置は、第1カメラから第2カメラへの切替に応じて、選択された第2カメラから配信された撮像映像の背景画像を取得し、この背景画像と第2カメラから配信された撮像映像とを用いて、第2カメラから配信された撮像映像に対してマスク処理を行って得た第2編集映像をモニタに表示する。【選択図】図31[PROBLEMS] To effectively perform mask processing by suppressing the non-display of a selected captured image even when the captured image of a monitoring camera to be displayed on a monitor is switched, and to improve the efficiency and marketing of a user. Improve analysis accuracy. An information processing apparatus generates a background image of each captured video distributed from each camera, stores the background image in a storage unit, and appears in a captured video or captured video of an imaging area distributed from a first camera. A first edited video obtained by performing mask processing for changing the moving object to a mask image is displayed on the monitor. The information processing apparatus acquires a background image of the captured video distributed from the selected second camera in response to switching from the first camera to the second camera, and captures the background image and the imaging distributed from the second camera. Using the video, the second edited video obtained by performing mask processing on the captured video delivered from the second camera is displayed on the monitor. [Selection] Figure 31
Description
本発明は、監視エリアの撮像映像において検知された移動体(例えば人物)の画像領域を、その移動体が誰であるかを特定不能とするためのマスク画像に変更するマスク処理後の編集映像を出力するモニタリングシステム、映像表示方法及びコンピュータプログラムに関する。 The present invention relates to an edited video after mask processing for changing an image area of a moving body (for example, a person) detected in a captured image of a monitoring area to a mask image for making it impossible to specify who the moving body is. The present invention relates to a monitoring system , a video display method, and a computer program .
コンビニエンスストア等の店舗においては、店舗内を撮影するカメラが設置され、そのカメラの撮像により得られた映像(以下、「撮像映像」という)を用いて店舗内の人物を監視する監視システムが広く普及している。このような監視システムの運用において、監視以外の目的(例えば店舗内の人物の動線を把握してマーケティング分析やサービス向上を図るという目的)に撮影映像を利用する場合、カメラにより映し出される人物(例えば顧客)のプライバシーを保護する必要がある。 In stores such as convenience stores, cameras that shoot inside the store are installed, and there are a wide variety of monitoring systems that monitor people in the store using video (hereinafter referred to as “captured video”) obtained by imaging with the camera. It is popular. In the operation of such a monitoring system, when using a photographed image for purposes other than monitoring (for example, the purpose of grasping the flow of people in a store and promoting marketing analysis and service improvement), the person shown by the camera ( For example, customers' privacy needs to be protected.
ここで、店舗内の人物の属性別に人物の行動の傾向を把握する先行技術として、例えば特許文献1に示すモニタリングシステムが知られている。特許文献1のモニタリングシステムは、監視エリアを撮影した動画映像から検知された人物の画像領域をマスク画像に変更したマスク映像を生成して出力するモニタリング装置を有する。モニタリング装置は、撮像画像から検知された人物毎の領域情報を取得し、撮像映像から検知された人物毎の属性を判定し、属性別のマスク画像を設定する。モニタリング装置は、人物毎の領域情報及び属性を基に、人物毎の輪郭線を生成し、この輪郭線内部を属性別に指定されたマスク画像に変更したマスク映像を生成して出力する。 Here, for example, a monitoring system disclosed in Patent Document 1 is known as a prior art for grasping a tendency of a person's action for each attribute of a person in a store. The monitoring system of Patent Literature 1 includes a monitoring device that generates and outputs a mask video in which a person's image area detected from a moving image captured in a monitoring area is changed to a mask image. The monitoring device acquires area information for each person detected from the captured image, determines an attribute for each person detected from the captured video, and sets a mask image for each attribute. The monitoring device generates a contour line for each person based on the region information and attributes for each person, and generates and outputs a mask video in which the inside of the contour line is changed to a mask image designated for each attribute.
特許文献1によれば、監視エリアにおいて検知された人物の動画映像内の位置情報及び人物の属性(例えば性別、年齢)毎にマスク画像が生成されるため、そのマスク画像により、プライバシーを確保した上で店舗内の人物の行動が把握可能となる。 According to Patent Document 1, since a mask image is generated for each position information and person attribute (for example, gender, age) in a moving image of a person detected in a monitoring area, privacy is ensured by the mask image. The behavior of the person in the store can be grasped above.
しかしながら、特許文献1では、動画映像において検知された人物の画像領域をマスク画像に変更するのはカメラであり、カメラからの動画映像を受信する受信装置(例えばユーザが使用するクライアントPC)によりマスク処理が行われることは考慮されていない。また、既設の監視カメラには、特許文献1のマスク処理を実行可能な機能(マスク機能)を有していないものが少なくない。 However, in Patent Document 1, it is a camera that changes the image area of a person detected in a moving image to a mask image, and the mask is set by a receiving device (for example, a client PC used by a user) that receives the moving image from the camera. It is not taken into account that processing is performed. Many existing surveillance cameras do not have a function (mask function) capable of executing the mask processing of Patent Document 1.
ここで、例えばユーザの監視業務の中で、監視エリアに複数の監視カメラが設置され、かつそれぞれの監視カメラから配信されている最新の撮像映像を受信したクライアントPCのモニタにおいて、ユーザ操作により、それぞれの撮像映像が順に切り替えて表示されることを想定する。クライアントPCは、監視カメラの撮像映像の表示を切り替える度に、選択された監視カメラの撮像映像に対してマスク処理を行うため、マスク処理における初期学習(後述参照)において撮像映像中の背景画像(つまり、撮像映像中で動きの無い静止領域からなる画像領域)を生成する必要がある。しかしながら、この初期学習の処理中は、撮像映像中の背景画像の生成が完了していないためにクライアントPCは撮像映像の表示をできず、撮像映像の表示ができない期間(例えば30秒〜1分程度)が発生するという課題がある。 Here, for example, in the user's monitoring work, a plurality of monitoring cameras are installed in the monitoring area, and the monitor of the client PC that has received the latest captured video distributed from each monitoring camera, by user operation, It is assumed that the respective captured images are switched and displayed in order. Each time the client PC switches the display of the captured video of the surveillance camera, the client PC performs a mask process on the captured video of the selected surveillance camera. Therefore, in the initial learning (see below) in the mask process, the background image ( In other words, it is necessary to generate an image region (a still region having no motion in the captured image). However, during the initial learning process, since the generation of the background image in the captured video is not completed, the client PC cannot display the captured video and cannot display the captured video (for example, 30 seconds to 1 minute). There is a problem that the degree) occurs.
監視カメラの撮像映像の表示を切り替える度に、クライアントPCにおける初期学習の処理を仮に省略した場合、クライアントPCにおいて適正な背景画像が生成されないことになる。このため、クライアントPCがマスク処理において移動体(例えば人物)の検知を正しくできず、マスク処理後の編集映像内の人物がマスク画像に置き換えて表示されずにそのまま表示されてしまい、その人物のプライバシーが的確に保護されないという可能性がある。 If the initial learning process in the client PC is omitted every time the display of the captured video of the monitoring camera is switched, an appropriate background image is not generated in the client PC. For this reason, the client PC cannot correctly detect the moving object (for example, a person) in the mask process, and the person in the edited video after the mask process is displayed without being replaced with the mask image. There is a possibility that privacy is not protected properly.
本発明は、上述した従来の状況に鑑みて案出され、モニタへの表示対象となる監視カメラの撮像映像の切り替えがあっても、選択された撮像映像の非表示を抑制した上でマスク処理を適切に施し、ユーザの監視業務の効率やマーケティング分析精度の向上を図るモニタリングシステム、映像表示方法及びコンピュータプログラムを提供することを目的とする。 The present invention has been devised in view of the above-described conventional situation, and mask processing is performed after suppressing the non-display of the selected captured image even when the captured image of the monitoring camera to be displayed on the monitor is switched. It is an object of the present invention to provide a monitoring system , a video display method, and a computer program that are appropriately applied to improve the efficiency of user monitoring operations and the accuracy of marketing analysis.
本発明は、撮像エリアを撮像する複数のカメラと、前記複数のカメラのうちの第1カメラから配信された前記撮像エリアの撮像映像、又は前記撮像映像に現れる移動体をマスク画像に変更するためのマスク処理を行って得た第1編集映像をモニタに表示する情報処理装置と、を備え、前記情報処理装置は、個々の前記カメラから配信された各撮像映像の背景画像を繰り返し生成して記憶部に保存し、前記情報処理装置は、前記第1カメラから第2カメラへの切替に応じて、前記第1カメラから配信されて前記記憶部に記憶されている撮像映像の背景画像を前記記憶部に保持させておき、更に、前記第2カメラから配信された撮像映像の背景画像を前記記憶部から取得し、前記記憶部から取得した背景画像と前記第2カメラから配信された撮像映像とを用いて、前記第2カメラから配信された撮像映像に対して前記マスク処理を行って得た第2編集映像を前記モニタに表示する、モニタリングシステムを提供する。 The present invention is to change a captured image of an imaging area distributed from a plurality of cameras that capture an imaging area and a first camera among the plurality of cameras, or a moving body appearing in the captured image to a mask image. An information processing device that displays on a monitor the first edited video obtained by performing the masking process, and the information processing device repeatedly generates a background image of each captured video distributed from each of the cameras. The information processing apparatus stores the background image of the captured video that is distributed from the first camera and stored in the storage unit in response to switching from the first camera to the second camera. allowed to held in the storage unit, further, the background image of the delivered video image from the second camera acquired from the storage unit, which is delivered as a background image acquired from the storage unit from the second camera imaging By using the image, and displays the second edited video obtained by performing the masking process on distributed video image from the second camera on the monitor, to provide a monitoring system.
また、本発明は、撮像エリアを撮像する複数のカメラと、前記複数のカメラのうちの第1カメラから配信された前記撮像エリアの撮像映像、又は前記撮像映像に現れる移動体をマスク画像に変更するためのマスク処理を行って得た第1編集映像をモニタに表示する情報処理装置と、個々の前記カメラから配信された各撮像映像の背景画像を生成して記憶部に保存するサーバ装置と、を備え、前記サーバ装置は、前記記憶部から取得した前記各撮像映像の背景画像を一定間隔で更新し、更新後の各背景画像を前記記憶部に記憶し、前記情報処理装置は、前記第1カメラから第2カメラへの切替に応じて、選択された前記第2カメラに対応する生成後又は更新後の背景画像を前記サーバ装置から取得し、前記サーバ装置から取得した背景画像と前記第2カメラから配信された撮像映像とを用いて、前記第2カメラから配信された撮像映像に対して前記マスク処理を行って得た第2編集映像を前記モニタに表示する、モニタリングシステムを提供する。 In addition, the present invention changes a plurality of cameras that capture an imaging area, a captured image of the imaging area distributed from a first camera of the plurality of cameras, or a moving body that appears in the captured image to a mask image. An information processing apparatus that displays on a monitor a first edited video obtained by performing a mask process for performing, and a server apparatus that generates a background image of each captured video distributed from each of the cameras and stores the background image in a storage unit; The server device updates the background images of the captured images acquired from the storage unit at regular intervals, stores the updated background images in the storage unit, and the information processing device In response to switching from the first camera to the second camera, a background image after generation or update corresponding to the selected second camera is acquired from the server device, and the background image acquired from the server device and the previous image are acquired. Provided is a monitoring system for displaying on a monitor a second edited video obtained by performing the mask processing on a captured video distributed from the second camera using a captured video distributed from a second camera. To do.
また、本発明は、撮像エリアを撮像する複数のカメラのうちの第1カメラから配信された前記撮像エリアの撮像映像、又は前記撮像映像に現れる移動体をマスク画像に変更するためのマスク処理を行って得た第1編集映像を、情報処理装置を用いてモニタに表示するモニタリングシステムにおける映像表示方法であって、前記情報処理装置は、個々の前記カメラから配信された各撮像映像の背景画像を繰り返して生成して記憶部に保存し、前記情報処理装置は、前記第1カメラから第2カメラへの切替に応じて、前記第1カメラから配信されて前記記憶部に記憶されている撮像映像の背景画像を前記記憶部に保持させておき、更に、前記第2カメラから配信された撮像映像の背景画像を前記記憶部から取得し、前記記憶部から取得した背景画像と前記第2カメラから配信された撮像映像とを用いて、前記第2カメラから配信された撮像映像に対して前記マスク処理を行って得た第2編集映像を前記モニタに表示する、映像表示方法を提供する。 Further, the present invention provides a mask process for changing a captured image of the imaging area distributed from a first camera of a plurality of cameras that capture an imaging area or a moving body appearing in the captured image to a mask image. A video display method in a monitoring system for displaying on a monitor using an information processing device, the first edited video obtained by performing the processing , wherein the information processing device is a background image of each captured video distributed from each of the cameras Are repeatedly generated and stored in the storage unit, and the information processing apparatus is delivered from the first camera and stored in the storage unit in response to switching from the first camera to the second camera. the background image of the video allowed to hold in the storage unit, further, obtains the background image of captured image distributed from the second camera from the storage unit, a background image acquired from the storage unit And a second edited video obtained by performing the mask process on the captured video delivered from the second camera using the captured video delivered from the second camera and the video displayed on the monitor Provide a method.
また、本発明は、撮像エリアを撮像する複数のカメラのうちの第1カメラから配信された前記撮像エリアの撮像映像、又は前記撮像映像に現れる移動体をマスク画像に変更するためのマスク処理を行って得た第1編集映像をモニタに表示する情報処理装置と、個々の前記カメラから配信された各撮像映像の背景画像を生成して記憶部に保存するサーバ装置と、を備えたモニタリングシステムにおける映像表示方法であって、前記サーバ装置は、前記記憶部から取得した前記各撮像映像の背景画像を一定間隔で更新し、更新後の各背景画像を前記記憶部に記憶し、前記情報処理装置は、前記第1カメラから第2カメラへの切替に応じて、選択された前記第2カメラに対応する生成後又は更新後の背景画像を前記サーバ装置から取得し、前記サーバ装置から取得した背景画像と前記第2カメラから配信された撮像映像とを用いて、前記第2カメラから配信された撮像映像に対して前記マスク処理を行って得た第2編集映像を前記モニタに表示する、映像表示方法を提供する。 Further, the present invention, the mask processing for changing video image of the imaging area which is distributed from the first camera of the plurality of cameras for imaging the imaging area, or the moving object appearing in the captured image in the mask image Monitoring apparatus comprising: an information processing apparatus that displays on a monitor the first edited video obtained by performing the above and a server device that generates a background image of each captured video distributed from each of the cameras and stores the background image in a storage unit In the video display method in the system, the server device updates a background image of each captured video acquired from the storage unit at regular intervals, stores the updated background images in the storage unit, and the information In response to switching from the first camera to the second camera, the processing device acquires a generated or updated background image corresponding to the selected second camera from the server device, and Using the background image acquired from the apparatus and the captured video distributed from the second camera, the second edited video obtained by performing the mask process on the captured video distributed from the second camera is monitored. A video display method is provided.
本発明によれば、モニタへの表示対象となる監視カメラの撮像映像の切り替えがあっても、選択された撮像映像の非表示を抑制した上でマスク処理を適切に施し、ユーザの監視業務の効率やマーケティング分析精度の向上を図ることができる。 According to the present invention, even if there is a switching of the captured video of the monitoring camera to be displayed on the monitor, the mask processing is appropriately performed after suppressing the non-display of the selected captured video, and the user's monitoring work Efficiency and marketing analysis accuracy can be improved.
(第1の実施形態の内容に至る経緯)
上述した特許文献1によれば、監視エリアにおいて検知された人物の動画映像内の位置情報及び人物の属性(例えば性別、年齢)毎にマスク画像が生成されるため、そのマスク画像により、プライバシーを確保した上で店舗内の人物の行動が把握可能となる。
(Background to the contents of the first embodiment)
According to Patent Document 1 described above, a mask image is generated for each position information and person attribute (for example, gender, age) in a moving image of a person detected in a monitoring area. Once secured, the behavior of the person in the store can be grasped.
しかしながら、特許文献1では、ユーザ(例えば監視者)がカメラの撮像映像に対して直接的に指定する監視エリア内の任意の領域に存在する人物をマスク画像に変更するという思想は考慮されていない。撮像映像内に存在する人物のプライバシーを保護することは重要ではあるが、カメラの設置環境によっては、撮像映像内の全ての領域に存在する1人以上の人物が全てマスク画像となってしまうと撮像映像の視認性が劣化する。このため、人物のプライバシー保護と撮像映像の視認性の劣化の抑制を両立することが望まれる。 However, Patent Document 1 does not consider the idea of changing a person existing in an arbitrary area in a monitoring area directly designated by a user (for example, a monitor) to a captured image of a camera to a mask image. . Although it is important to protect the privacy of a person existing in the captured video, depending on the installation environment of the camera, when one or more persons existing in all areas in the captured video all become mask images. The visibility of the captured image deteriorates. For this reason, it is desired to achieve both the protection of the privacy of a person and the suppression of deterioration of the visibility of the captured image.
そこで、以下の第1の実施形態では、カメラが設置された場所の環境に適合するように、カメラの撮像映像内に映る人物のプライバシーの保護とカメラの撮像映像の視認性の劣化の抑制とを両立し、ユーザの使い勝手を向上するモニタリングシステム及びマスク処理設定方法の例について説明する。 Therefore, in the following first embodiment, the privacy of a person shown in the captured image of the camera is protected and the deterioration of the visibility of the captured image of the camera is suppressed so as to suit the environment of the place where the camera is installed. An example of a monitoring system and a mask processing setting method that improve the usability of the user will be described.
以下、適宜図面を参照しながら、本発明に係るモニタリングシステムを具体的に開示した各実施形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるものであり、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 Hereinafter, each embodiment specifically disclosing the monitoring system according to the present invention will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of already well-known matters and repeated descriptions for substantially the same configuration may be omitted. This is to avoid the following description from becoming unnecessarily redundant and to facilitate understanding by those skilled in the art. The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims.
以下、本発明に係るモニタリングシステム、監視エリア(例えば店舗、工場、営業所、図書館やイベント会場等の公共施設、事務所、銀行)に少なくとも一つの監視用途のカメラが設置される監視カメラシステム(有人監視カメラシステム、無人監視カメラシステムのどちらも可)を例示して説明する。 Hereinafter, a monitoring camera system according to the present invention, a monitoring camera system in which at least one surveillance camera is installed in a monitoring area (for example, a store, a factory, a sales office, a public facility such as a library or an event venue, an office, or a bank). An example of a manned surveillance camera system or an unmanned surveillance camera system is possible.
なお、本発明は、モニタリングシステムにおけるマスク処理設定方法として表現することも可能である。また、本発明は、モニタリングシステムを構成するコンピュータであるクライアントPC(Personal Computer)に、マスク処理設定方法により規定される動作を実行させるためのプログラム、又はマスク処理設定方法により規定される動作を実行させるためのプログラムが記録された記録媒体として表現することも可能である。 The present invention can also be expressed as a mask processing setting method in the monitoring system. Further, the present invention executes a program for causing a client PC (Personal Computer), which is a computer constituting the monitoring system, to execute an operation specified by the mask processing setting method, or an operation specified by the mask processing setting method. It can also be expressed as a recording medium on which a program for causing the program to be recorded is recorded.
以下、モニタリングシステムの一例としての監視カメラシステムの使用者(例えば、監視エリアの撮像映像を閲覧する監視員)を、単に「ユーザ」という。また、以下の説明において、「全方位カメラ」、「PTZカメラ」及び「固定カメラ」を総称として、単に「カメラ」という。従って、以下の説明において、単に「カメラ」と記載されている場合、そのカメラは、全方位カメラ、PTZカメラ及び固定カメラのうち少なくとも一つを指すものとする。 Hereinafter, a user of a monitoring camera system as an example of a monitoring system (for example, a monitoring person browsing a captured image of a monitoring area) is simply referred to as a “user”. In the following description, “omnidirectional camera”, “PTZ camera”, and “fixed camera” are simply referred to as “camera”. Therefore, in the following description, when simply described as “camera”, the camera indicates at least one of an omnidirectional camera, a PTZ camera, and a fixed camera.
(第1の実施形態)
図1は、各実施形態の監視カメラシステム100のシステム構成の一例を示す図である。監視カメラシステム100では、レコーダREC1,REC4と、ルータRUT2,RUT3,RUT4とがネットワークNWを介してそれぞれ接続されている。監視カメラシステム100は、ユーザにより使用されるクライアントPC10と、複数のカメラ(後述する全方位カメラ、PTZ(Pan Tilt Zoom)カメラ、固定カメラを参照)と、複数のレコーダ(後述参照)とを含む構成である。
(First embodiment)
FIG. 1 is a diagram illustrating an example of a system configuration of a monitoring camera system 100 according to each embodiment. In the surveillance camera system 100, recorders REC1 and REC4 and routers RUT2, RUT3 and RUT4 are connected via a network NW. The surveillance camera system 100 includes a client PC 10 used by a user, a plurality of cameras (refer to an omnidirectional camera, a PTZ (Pan Tilt Zoom) camera, and a fixed camera described later), and a plurality of recorders (refer to a later description). It is a configuration.
レコーダREC1は、公知のルーティング機能を有するルータRUT1を介して、全方位カメラCAM11、PTZカメラCAM12,CAM13及び固定カメラCAM14にそれぞれ接続されている。これらの全方位カメラCAM11、PTZカメラCAM12,CAM13及び固定カメラCAM14によりそれぞれ撮像された撮像映像は、ルータRUT1を介してレコーダREC1において該当するカメラの識別情報及び撮像日時と関連付けて録画映像として記憶される。全方位カメラCAM11、PTZカメラCAM12,CAM13及び固定カメラCAM14は、それぞれ同一の撮像エリア又は異なる撮像エリアを撮像しても構わない。このように、本実施形態を含む各実施形態では、レコーダREC1に対して、複数のカメラ(つまり、全方位カメラCAM11、PTZカメラCAM12,CAM13及び固定カメラCAM14)が対応付けられている。 The recorder REC1 is connected to the omnidirectional camera CAM11, the PTZ cameras CAM12 and CAM13, and the fixed camera CAM14 via a router RUT1 having a known routing function. The captured images captured by these omnidirectional cameras CAM11, PTZ cameras CAM12, CAM13, and fixed camera CAM14 are stored as recorded images in the recorder REC1 via the router RUT1 in association with the corresponding camera identification information and imaging date / time. The The omnidirectional camera CAM11, the PTZ cameras CAM12, CAM13, and the fixed camera CAM14 may each capture the same imaging area or different imaging areas. Thus, in each embodiment including this embodiment, a plurality of cameras (that is, the omnidirectional camera CAM11, the PTZ cameras CAM12, CAM13, and the fixed camera CAM14) are associated with the recorder REC1.
レコーダREC4は、オンラインストレージとしての機能を有し、ネットワークNWの接続先機器(例えば他のレコーダ、クライアントPC10)から録画の要求があった撮像映像等のデータを記憶する。 The recorder REC4 has a function as an online storage, and stores data such as a captured video requested to be recorded from a connection destination device (for example, another recorder, the client PC 10) of the network NW.
レコーダREC2は、公知のルーティング機能を有するルータRUT2を介して、ネットワークNWや、PTZカメラCAM21及び固定カメラCAM22にそれぞれ接続されている。PTZカメラCAM21及び固定カメラCAM22によりそれぞれ撮像された撮像映像は、ルータRUT2を介してレコーダREC2において該当するカメラの識別情報及び撮像日時と関連付けて録画映像として記憶される。PTZカメラCAM21及び固定カメラCAM22は、それぞれ同一の撮像エリア又は異なる撮像エリアを撮像しても構わない。このように、本実施形態を含む各実施形態では、レコーダREC2に対して、複数のカメラ(つまり、PTZカメラCAM21及び固定カメラCAM22)が対応付けられている。 The recorder REC2 is connected to the network NW, the PTZ camera CAM21, and the fixed camera CAM22 via a router RUT2 having a known routing function. The captured images captured by the PTZ camera CAM21 and the fixed camera CAM22 are stored as recorded images in the recorder REC2 via the router RUT2 in association with the corresponding camera identification information and imaging date / time. The PTZ camera CAM21 and the fixed camera CAM22 may each capture the same imaging area or different imaging areas. Thus, in each embodiment including the present embodiment, a plurality of cameras (that is, the PTZ camera CAM21 and the fixed camera CAM22) are associated with the recorder REC2.
レコーダREC3は、公知のルーティング機能を有するルータRUT3を介して、ネットワークNWや、全方位カメラCAM31、PTZカメラCAM32,CAM33及び固定カメラCAM34にそれぞれ接続されている。これらの全方位カメラCAM31、PTZカメラCAM32,CAM33及び固定カメラCAM34によりそれぞれ撮像された撮像映像は、ルータRUT3を介してレコーダREC3において該当するカメラの識別情報及び撮像日時と関連付けて録画映像として記憶される。全方位カメラCAM31、PTZカメラCAM32,CAM33及び固定カメラCAM34は、それぞれ同一の撮像エリア又は異なる撮像エリアを撮像しても構わない。このように、本実施形態を含む各実施形態では、レコーダREC3に対して、複数のカメラ(つまり、全方位カメラCAM31、PTZカメラCAM32,CAM33及び固定カメラCAM34)が対応付けられている。 The recorder REC3 is connected to the network NW, the omnidirectional camera CAM31, the PTZ cameras CAM32, CAM33, and the fixed camera CAM34 via a router RUT3 having a known routing function. The captured images respectively captured by these omnidirectional cameras CAM31, PTZ cameras CAM32, CAM33, and fixed camera CAM34 are stored as recorded images in the recorder REC3 via the router RUT3 in association with the corresponding camera identification information and imaging date / time. The The omnidirectional camera CAM31, the PTZ cameras CAM32, CAM33, and the fixed camera CAM34 may each capture the same imaging area or different imaging areas. Thus, in each embodiment including this embodiment, a plurality of cameras (that is, the omnidirectional camera CAM31, the PTZ cameras CAM32, CAM33, and the fixed camera CAM34) are associated with the recorder REC3.
情報処理装置の一例としてのクライアントPC10は、上述したカメラ(具体的には、全方位カメラCAM11,CAM31、PTZカメラCAM12,CAM13,CAM21,CAM32,CAM33、固定カメラCAM14,CAM22,CAM34)により撮像されたそれぞれの撮像映像を用いて、その撮像映像に現れる移動体(例えば人物。以下同様。)の少なくとも一部又は全体をマスク画像に変更するためのマスク処理を行う機能を有する。クライアントPC10は、各種のカメラ又はレコーダから送信(配信)された撮像映像をモニタDPに表示したり、各種のカメラ又はレコーダから送信(配信)された撮像映像をマスク処理した後の編集映像をモニタDPに表示したりする。なお、以下の説明において、移動体は、人物に限定されず、自動車又はロボット等でも構わない。 The client PC 10 as an example of the information processing apparatus is imaged by the above-described cameras (specifically, omnidirectional cameras CAM11 and CAM31, PTZ cameras CAM12, CAM13, CAM21, CAM32, CAM33, fixed cameras CAM14, CAM22, and CAM34). Each of the captured images has a function of performing a mask process for changing at least a part or the whole of a moving body (for example, a person, the same applies hereinafter) appearing in the captured image to a mask image. The client PC 10 displays the captured video transmitted (distributed) from various cameras or recorders on the monitor DP, or monitors the edited video after masking the captured video transmitted (distributed) from various cameras or recorders. Or display on DP. In the following description, the moving body is not limited to a person, and may be an automobile or a robot.
ここで、マスク画像とは、撮像映像に現れる人物のプライバシーを保護するために、その人物が誰であるかの具体的な特定を困難にするための画像処理(つまり、マスク処理)が施された画像である。マスク画像は、例えば撮像映像に現れる人物の輪郭線内部が半透明に画像処理された画像である。また、以下の説明では、マスク処理をMOR(Moving Object Remover)処理と称することもある。MOR処理とは、詳細は図11及び図12を参照して後述するが、撮像映像に現れる移動体が存在する動体領域を、マスク画像(例えば半透明画像)に置き換える処理を示す。これにより、撮像映像中に現れる人物が誰であるかの具体的な特定が困難となり、その人物のプライバシーを保護することが可能となる。例えばマスク処理部114(後述参照)により、例えば撮像映像中の移動体(例えば人物)が半透明画像のマスク画像MSK1に置き換えられた場合、撮像映像に現れる人物の輪郭線内部が半透明になり背景画像が透けて見えて背景に何があるかもわかる。これにより、人物がマスク画像MSK1に置き換えられたとしても、人物のプライバシーの保護をしながら映像としての視認性も確保できる。 Here, the mask image is subjected to image processing (that is, mask processing) for making it difficult to specifically identify who the person is in order to protect the privacy of the person appearing in the captured video. It is an image. The mask image is, for example, an image in which the inside of a contour line of a person appearing in a captured video is processed to be translucent. In the following description, the mask process may be referred to as a MOR (Moving Object Remover) process. The MOR process, which will be described in detail later with reference to FIGS. 11 and 12, shows a process of replacing a moving object region where a moving object appears in a captured image with a mask image (for example, a translucent image). As a result, it is difficult to specifically identify who the person appears in the captured video, and the privacy of the person can be protected. For example, when a moving body (for example, a person) in a captured image is replaced with a mask image MSK1 of a translucent image, for example, by the mask processing unit 114 (see later), the inside of the outline of the person appearing in the captured image becomes translucent. You can see through the background image and see what is in the background. Thereby, even if a person is replaced with the mask image MSK1, it is possible to ensure visibility as a video while protecting the privacy of the person.
また、以下の説明において、カメラにより撮像された映像を「撮像映像」といい、撮像映像が例えばクライアントPC10又はマスク機能を有するマスクカメラ(後述参照)によってマスク処理された後のマスク画像が撮像映像に重畳された映像を「編集映像」という。 In the following description, an image captured by the camera is referred to as “captured image”, and a mask image after the captured image is masked by, for example, the client PC 10 or a mask camera having a mask function (see later) is captured image. The video superimposed on is called “edited video”.
クライアントPC10は、公知のルーティング機能を有するルータRUT4を介して、ネットワークNWやシステムコントローラ5に接続されている。システムコントローラ5には、ユーザの操作を支援するために設けられたジョイスティックJ1が接続されている。システムコントローラ5は、例えば監視カメラシステム100を構成する機器の動作に関連する各種設定を行う。 The client PC 10 is connected to the network NW and the system controller 5 via a router RUT 4 having a known routing function. The system controller 5 is connected to a joystick J1 provided to support user operations. For example, the system controller 5 performs various settings related to the operation of the devices constituting the surveillance camera system 100.
ネットワークNWは、有線ネットワーク(例えばイントラネット、インターネット、有線LAN(Local Area Network)でもよいし、無線ネットワーク(例えば無線LAN)でもよい。なお、例えばレコーダREC1,REC2,REC3,REC4はネットワークNWを介することなく、直接にクライアントPC10と接続されてもよい。また、図1ではモニタDPはクライアントPCとは別体として設けられたものとして図示されている。但し、モニタDPは、図4に示すように、クライアントPC10の内部に含まれるように設けられても構わない。システムコントローラ5、ジョイスティックJ1及びクライアントPC10は、例えばユーザが監視時において常駐する監視室内に設置される。 The network NW may be a wired network (for example, an intranet, the Internet, a wired LAN (Local Area Network), or a wireless network (for example, a wireless LAN), for example, the recorders REC1, REC2, REC3, and REC4 are connected via the network NW. The monitor DP may be directly connected to the client PC 10. In addition, the monitor DP is illustrated as being provided separately from the client PC in Fig. 1. However, the monitor DP is shown in Fig. 4. The system controller 5, the joystick J1, and the client PC 10 may be installed in, for example, a monitoring room where a user resides during monitoring.
また、ネットワークNWは広域通信網であるWAN(Wide Area Network)であってもよく、この場合には、例えば会社内の複数の拠点毎又は複数の店舗毎にそれぞれレコーダが設けられ、拠点毎又は店舗毎に撮像された撮像映像がそれぞれのレコーダに記憶される。 The network NW may be a wide area network (WAN), and in this case, for example, a recorder is provided for each of a plurality of bases or a plurality of stores in a company, The picked-up image picked up for each store is stored in each recorder.
図2は、全方位カメラCAM11,…又は固定カメラCAM14,…の内部構成の一例を詳細に示すブロック図である。全方位カメラCAM11,CAM31及び固定カメラCAM14,CAM22,CAM34の内部構成は同一であり、ここでは説明を簡単にするために、例えば全方位カメラCAM11の内部構成として説明する。図2の説明において、全方位カメラCAM11を、他の全方位カメラ(例えば全方位カメラCAM31)、又は他の固定カメラ(例えば固定カメラCAM14)に読み替えても構わない。但し、図2の説明において、全方位カメラCAM11と固定カメラとで異なる構成の内容については説明する。図2に示す全方位カメラCAM11は、プロセッサC11、通信部C12、レンズC13、イメージセンサC14、メモリC15及び電源管理部C16を含む構成である。 2 is a block diagram showing in detail an example of the internal configuration of the omnidirectional camera CAM11,... Or the fixed camera CAM14,. The internal configurations of the omnidirectional cameras CAM11 and CAM31 and the fixed cameras CAM14, CAM22, and CAM34 are the same. Here, for the sake of simplicity of description, for example, the internal configuration of the omnidirectional camera CAM11 will be described. In the description of FIG. 2, the omnidirectional camera CAM11 may be read as another omnidirectional camera (for example, the omnidirectional camera CAM31) or another fixed camera (for example, the fixed camera CAM14). However, in the description of FIG. 2, the contents of different configurations of the omnidirectional camera CAM11 and the fixed camera will be described. The omnidirectional camera CAM11 shown in FIG. 2 includes a processor C11, a communication unit C12, a lens C13, an image sensor C14, a memory C15, and a power management unit C16.
プロセッサC11は、全方位カメラCAM11の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。プロセッサC11は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)又はFPGA(field-programmable gate array)を用いて構成される。 The processor C11 performs signal processing for overall control of operations of each unit of the omnidirectional camera CAM11, data input / output processing with other units, data calculation processing, and data storage processing. The processor C11 is configured using, for example, a central processing unit (CPU), a micro processing unit (MPU), a digital signal processor (DSP), or a field-programmable gate array (FPGA).
例えばプロセッサC11は、システムコントローラ5又はクライアントPC10を使用するユーザの操作に応じて、イメージセンサC14における撮像により得られた全方位画像データを取得し、更に、その全方位画像データのうち特定の範囲(方向)の画像を切り出した2次元パノラマ画像データ(つまり、2次元パノラマ変換した画像データ)を生成してメモリC15に記憶する。また、プロセッサC11は、システムコントローラ5又はクライアントPC10を使用するユーザの操作に応じて、イメージセンサC14における撮像により得られた固定画角の撮像画像データを取得してメモリC15に記憶する。 For example, the processor C11 acquires omnidirectional image data obtained by imaging in the image sensor C14 in accordance with a user operation using the system controller 5 or the client PC 10, and further, a specific range of the omnidirectional image data. Two-dimensional panoramic image data (that is, image data obtained by two-dimensional panorama conversion) obtained by cutting out an image of (direction) is generated and stored in the memory C15. Further, the processor C11 acquires captured image data having a fixed angle of view obtained by imaging by the image sensor C14 in accordance with a user operation using the system controller 5 or the client PC 10, and stores it in the memory C15.
通信部C12は、ルータRUT1との間のデータ通信を制御するネットワークインタフェース(I/F)であり、全方位画像データ、2次元パノラマ画像データ又は固定画角の撮像画像データを、ルータRUT1を介してレコーダREC1に送信する。また、通信部C12は、全方位画像データ、2次元パノラマ画像データ又は固定画角の撮像画像データを、ルータRUT1及びレコーダREC1を介して、カメラの識別情報及び撮像日時と関連付けてクライアントPC10に送信しても構わない。 The communication unit C12 is a network interface (I / F) that controls data communication with the router RUT1, and transmits omnidirectional image data, two-dimensional panoramic image data, or captured image data with a fixed angle of view via the router RUT1. To the recorder REC1. Further, the communication unit C12 transmits the omnidirectional image data, the two-dimensional panoramic image data, or the captured image data with a fixed angle of view to the client PC 10 in association with the camera identification information and the imaging date and time via the router RUT1 and the recorder REC1. It doesn't matter.
レンズC13は、例えば全方位カメラCAM11では広画角なレンズ又は魚眼レンズを用いて構成され、全方位カメラCAM11の撮像対象となる撮像エリアの全方位からの被写体光を入射して集光し、イメージセンサC14の受光面(撮像面)に被写体光の光学像を結像する。一方、レンズC13は、例えば固定カメラCAM14では固定画角のレンズを用いて構成され、固定カメラCAM14の撮像対象となる撮像エリアの画角方向からの被写体光を入射して集光し、イメージセンサC14の受光面(撮像面)に被写体光の光学像を結像する。 For example, in the omnidirectional camera CAM11, the lens C13 is configured by using a lens having a wide angle of view or a fisheye lens. An optical image of the subject light is formed on the light receiving surface (imaging surface) of the sensor C14. On the other hand, the lens C13 is configured by using, for example, a lens having a fixed angle of view in the fixed camera CAM14. The lens C13 receives and collects subject light from the angle of view of the imaging area to be imaged by the fixed camera CAM14, and collects it. An optical image of the subject light is formed on the light receiving surface (imaging surface) of C14.
イメージセンサC14は、例えばCMOS(Complementary Metal Oxide Semiconductor)センサ又はCCD(Charge Coupled Device)センサを用いて構成され、レンズC13により集光された撮像エリアからの被写体光の光学像を受光面(撮像面)において撮像処理することで、撮像エリアの全方位画像データ又は固定画角の撮像画像データを取得する。この全方位画像データ又は固定画角の撮像画像データは、プロセッサC11により取得される。 The image sensor C14 is configured by using, for example, a complementary metal oxide semiconductor (CMOS) sensor or a charge coupled device (CCD) sensor, and receives an optical image of subject light from the imaging area collected by the lens C13 as a light receiving surface (imaging surface). ), The omnidirectional image data of the imaging area or the captured image data of a fixed angle of view is acquired. The omnidirectional image data or the captured image data having a fixed angle of view is acquired by the processor C11.
メモリC15は、全方位カメラCAM11又は固定カメラCAM14の動作を規定するためのプログラムや設定値のデータが格納されたROM15zと、固定画角の撮像画像データ、全方位画像データ又はその一部の範囲が切り出された切り出し画像データやワークデータを記憶するRAM15yと、全方位カメラCAM11又は固定カメラCAM14に挿抜自在に接続され、各種データが記憶されるメモリカード15xとを有する。 The memory C15 includes a ROM 15z in which programs for setting the operation of the omnidirectional camera CAM11 or the fixed camera CAM14 and data of setting values are stored, captured image data having a fixed angle of view, omnidirectional image data, or a partial range thereof. A RAM 15y that stores cut-out image data and work data obtained by cutting out, and a memory card 15x that is detachably connected to the omnidirectional camera CAM11 or the fixed camera CAM14 and stores various data.
電源管理部C16は、全方位カメラCAM11又は固定カメラCAM14の各部に直流電源を供給する。また、電源管理部C16は、ルータRUT1に接続される他の機器(例えばPTZカメラCAM12,CAM13)に直流電源を供給してもよい。 The power management unit C16 supplies DC power to each unit of the omnidirectional camera CAM11 or the fixed camera CAM14. The power management unit C16 may supply DC power to other devices (for example, PTZ cameras CAM12 and CAM13) connected to the router RUT1.
図3は、PTZカメラCAM12,CAM13,…の内部構成の一例を詳細に示すブロック図である。PTZカメラCAM12,CAM13,CAM21,CAM32,CAM33の内部構成は同一であり、ここでは説明を簡単にするために、例えばPTZカメラCAM12の内部構成として説明する。図3の説明において、PTZカメラCAM12を、他のPTZカメラ(例えばPTZカメラCAM13)に読み替えても構わない。また、全方位カメラCAM11や固定カメラCAM14と同様の各部については、図2の各部に対応する符号を付すことでその説明を省略する。PTZカメラCAM12は、例えばユーザが使用するシステムコントローラ5又はクライアントPC10からの画角変更指示により、光軸方向(撮像方向)を調整可能なカメラである。 FIG. 3 is a block diagram showing in detail an example of the internal configuration of the PTZ cameras CAM12, CAM13,. The internal configurations of the PTZ cameras CAM12, CAM13, CAM21, CAM32, and CAM33 are the same. Here, for the sake of simplicity of description, for example, the internal configuration of the PTZ camera CAM12 will be described. In the description of FIG. 3, the PTZ camera CAM12 may be replaced with another PTZ camera (for example, the PTZ camera CAM13). Moreover, about each part similar to the omnidirectional camera CAM11 and the fixed camera CAM14, the code | symbol corresponding to each part of FIG. 2 is attached | subjected, and the description is abbreviate | omitted. The PTZ camera CAM 12 is a camera that can adjust the optical axis direction (imaging direction), for example, according to a view angle change instruction from the system controller 5 or the client PC 10 used by the user.
PTZカメラCAM12は、例えば全方位カメラCAM11と同様、プロセッサC21、通信部C22、レンズC23、イメージセンサC24、メモリC25を有する他、撮像方向制御部C27及びレンズ駆動モータC28を有する。プロセッサC21は、例えばシステムコントローラ5又はクライアントPC10の画角変更指示があると、撮像方向制御部C27に画角変更指示を通知する。 The PTZ camera CAM12 includes, for example, a processor C21, a communication unit C22, a lens C23, an image sensor C24, and a memory C25 as well as the omnidirectional camera CAM11, and also includes an imaging direction control unit C27 and a lens drive motor C28. For example, when there is a view angle change instruction from the system controller 5 or the client PC 10, the processor C21 notifies the imaging direction control unit C27 of the view angle change instruction.
撮像方向制御部C27は、プロセッサC21から通知された画角変更指示に従い、PTZカメラCAM12の撮像方向をパン方向及びチルト方向のうち少なくとも1つを制御し、更に必要に応じて、ズーム倍率を変更するための制御信号をレンズ駆動モータC28に出力する。レンズ駆動モータC28は、この制御信号に従って、レンズC23を駆動し、その撮像方向(つまり、光軸方向)を変更するとともに、レンズC23の焦点距離を調節してズーム倍率を変更する。 The imaging direction control unit C27 controls the imaging direction of the PTZ camera CAM12 in at least one of the pan direction and the tilt direction according to the view angle change instruction notified from the processor C21, and further changes the zoom magnification as necessary. A control signal for this is output to the lens drive motor C28. The lens drive motor C28 drives the lens C23 in accordance with this control signal, changes the imaging direction (that is, the optical axis direction), and adjusts the focal length of the lens C23 to change the zoom magnification.
レンズC23は、1又は2以上のレンズを用いて構成される。レンズC23では、撮像方向制御部C27からの制御信号に応じたレンズ駆動モータC28の駆動により、パン回転、チルト回転の光軸方向が変更される。 The lens C23 is configured using one or two or more lenses. In the lens C23, the optical axis directions of pan rotation and tilt rotation are changed by driving the lens driving motor C28 according to the control signal from the imaging direction control unit C27.
図4は、クライアントPC10の内部構成の一例を詳細に示すブロック図である。図4に示すクライアントPC10は、プロセッサ11、通信部12、操作部13、ストレージ15、メモリ16及び電源管理部17を含む構成である。 FIG. 4 is a block diagram showing an example of the internal configuration of the client PC 10 in detail. The client PC 10 illustrated in FIG. 4 includes a processor 11, a communication unit 12, an operation unit 13, a storage 15, a memory 16, and a power management unit 17.
プロセッサ11は、クライアントPC10の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。プロセッサ11は、例えばCPU、MPU、DSP又はFPGAを用いて構成される。プロセッサ11は、画像入力部111、背景画像処理部112、マスク処理設定部113、マスク処理部114及び映像出力制御部115を有する。 The processor 11 performs signal processing for overall control of operations of each unit of the client PC 10, data input / output processing with other units, data calculation processing, and data storage processing. The processor 11 is configured using, for example, a CPU, MPU, DSP, or FPGA. The processor 11 includes an image input unit 111, a background image processing unit 112, a mask processing setting unit 113, a mask processing unit 114, and a video output control unit 115.
画像入力部111は、各種のカメラやレコーダから送信されてかつ通信部12により受信された撮像映像を入力する。 The image input unit 111 inputs captured images transmitted from various cameras and recorders and received by the communication unit 12.
背景画像処理部112は、図11及び図12を参照して詳述するが、画像入力部111により取得された撮像映像を用いて、クライアントPC10におけるマスク処理(MOR処理)において行われる背景画像の生成や更新の各種処理を行う。背景画像の生成や更新の詳細については後述する。 The background image processing unit 112 will be described in detail with reference to FIG. 11 and FIG. 12. The background image processing unit 112 uses the captured video acquired by the image input unit 111 to perform background image processing performed in mask processing (MOR processing) in the client PC 10. Perform various generation and update processes. Details of generation and update of the background image will be described later.
マスク処理設定部113は、ユーザ操作(後述参照)に応じて、クライアントPC10が実行可能なマスク処理(MOR処理)に関する設定を行う。 The mask process setting unit 113 performs settings related to a mask process (MOR process) that can be executed by the client PC 10 in response to a user operation (described later).
マスク処理設定部113は、例えば画像入力部111により取得された撮像映像に対してマスク処理を実行するか又は実行しないかを指定するユーザ操作に応じて、その撮像映像の配信元(送信元)であるカメラ(つまり、全方位カメラ、PTZカメラ、固定カメラ)に関連付けてマスク処理の実行又は不実行を示すマスク設定情報を生成してストレージ15又はメモリ16に保存する。 The mask processing setting unit 113, for example, in response to a user operation that specifies whether or not to perform mask processing on the captured video acquired by the image input unit 111, the distribution source (transmission source) of the captured video Is generated in association with a camera (that is, an omnidirectional camera, a PTZ camera, or a fixed camera), and mask setting information indicating execution or non-execution of mask processing is generated and stored in the storage 15 or the memory 16.
また、マスク処理設定部113は、例えば画像入力部111により取得された撮像映像の中でマスク処理の対象外領域を指定するユーザ操作に応じて、指定された領域の位置情報(例えば座標情報)をマスク処理の対象外領域とするマスク設定情報を生成してストレージ15又はメモリ16に保存する。マスク設定情報の生成の詳細については後述するが、マスク設定情報はカメラごとに、マスク処理の実行又は不実行の指定、マスク処理の対象外領域の位置情報を少なくとも保持する。 Further, the mask processing setting unit 113, for example, position information (for example, coordinate information) of the designated area in response to a user operation that designates a non-target area for mask processing in the captured video acquired by the image input unit 111, for example. Is generated and stored in the storage 15 or the memory 16. Although details of generation of the mask setting information will be described later, the mask setting information holds at least the position information of the mask processing execution / non-execution area and the mask processing non-target area for each camera.
マスク処理部114は、マスク処理設定部113により生成されるマスク設定情報を基に、画像入力部111により取得された撮像映像の中から、マスク設定情報により指定されるマスク処理の対象外領域を除外した領域をマスク処理の対象領域として選択する。マスク処理部114は、選択したマスク処理の対象領域において、移動体(例えば人物)の輪郭線をマスク画像(例えば半透明画像)に変更したマスク画像を生成する。マスク処理の詳細については後述する。 Based on the mask setting information generated by the mask processing setting unit 113, the mask processing unit 114 selects a region not to be masked specified by the mask setting information from the captured video acquired by the image input unit 111. The excluded area is selected as a mask process target area. The mask processing unit 114 generates a mask image in which the outline of the moving body (for example, a person) is changed to a mask image (for example, a translucent image) in the selected mask processing target region. Details of the mask processing will be described later.
映像出力制御部115は、マスク処理の不実行が設定されたカメラからの撮像映像、又はカメラにより既にマスク処理(後述参照)された編集映像をそのままモニタDPに表示する。また、映像出力制御部115は、クライアントPC10におけるマスク処理の実行が設定されたカメラからの撮像映像と、この撮像映像に対してマスク処理部114により生成されたマスク画像とを用いて、撮像映像中の移動体(例えば人物)の位置にマスク画像を重畳した編集映像を生成する。映像出力制御部115は、この編集映像をモニタDPに表示する。 The video output control unit 115 displays the captured video from the camera set not to execute the mask process or the edited video already masked (see later) by the camera as it is on the monitor DP. In addition, the video output control unit 115 uses the captured video from the camera set to execute the mask process in the client PC 10 and the mask image generated by the mask processing unit 114 for the captured video. An edited video in which a mask image is superimposed on the position of the moving body (for example, a person) inside is generated. The video output control unit 115 displays the edited video on the monitor DP.
通信部12は、各種のカメラやレコーダから送信された撮像映像又は編集映像(後述参照)を、ルータRUT4を介して受信してプロセッサ11に出力する。 The communication unit 12 receives captured video or edited video (described later) transmitted from various cameras and recorders via the router RUT 4 and outputs the received video to the processor 11.
操作部13は、ユーザの入力操作の内容をプロセッサ11に通知するためのユーザインターフェース(UI:User Interface)であり、例えばマウス、キーボード等のポインティングデバイスで構成される。また、操作部13は、例えばモニタDPの表示画面に対応して配置され、ユーザの指やスタイラスペンによって直接入力操作が可能なタッチパネル又はタッチパッドを用いて構成されてもよい。 The operation unit 13 is a user interface (UI) for notifying the processor 11 of the contents of a user input operation, and is configured by a pointing device such as a mouse or a keyboard. The operation unit 13 may be configured using, for example, a touch panel or a touch pad that is arranged corresponding to the display screen of the monitor DP and can be directly input by a user's finger or stylus pen.
表示部の一例としてのモニタDPは、例えばLCD(Liquid Crystal Display)又は有機EL(Electroluminescence)を用いて構成され、マスク処理設定部113により設定されるカメラ設定画面(図6参照)や領域設定画面(図7参照)を表示したり、映像出力制御部115により出力された撮像映像又は編集映像を表示したりする。 The monitor DP as an example of a display unit is configured using, for example, an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence), and is set by a mask processing setting unit 113 (see FIG. 6) or an area setting screen. (See FIG. 7) or a captured image or an edited video output by the video output control unit 115 is displayed.
記憶部の一例としてのストレージ15は、例えばマスク処理設定部113により生成されるマスク設定情報を記憶し、更に、各種のカメラやレコーダから配信(送信)された撮像映像やプロセッサ11により生成された編集映像のデータを記憶する。 The storage 15 as an example of a storage unit stores, for example, mask setting information generated by the mask processing setting unit 113, and is further generated by a captured image distributed from (transmitted to) various cameras and recorders or the processor 11. Stores edited video data.
メモリ16は、クライアントPC10の動作を規定するためのプログラムや設定値のデータが格納されたROM161と、プロセッサ11が生成した各種のデータや処理途中のワークデータを記憶するRAM162とを含む。また、図4には図示されていないが、メモリ16は、クライアントPC10に挿抜自在に接続され、各種データが記憶されるメモリカード(不図示)を更に有しても構わない。 The memory 16 includes a ROM 161 that stores a program for specifying the operation of the client PC 10 and data of setting values, and a RAM 162 that stores various data generated by the processor 11 and work data being processed. Although not shown in FIG. 4, the memory 16 may further include a memory card (not shown) that is connected to the client PC 10 so as to be freely inserted and removed and that stores various data.
電源管理部17は、クライアントPC10の各部に直流電源を供給する。 The power management unit 17 supplies DC power to each unit of the client PC 10.
図5は、レコーダREC1,…の内部構成の一例を詳細に示すブロック図である。レコーダREC1,REC2,REC3,REC4の内部構成は同一であり、ここでは説明を簡単にするために、例えばレコーダREC1の内部構成として説明する。図5の説明において、レコーダREC1を、他のレコーダ(例えばレコーダREC2)に読み替えても構わない。図5に示すレコーダREC1は、プロセッサR11、通信部R12、メモリR13、ストレージR14及び電源管理部R16を含む構成である。 FIG. 5 is a block diagram showing in detail an example of the internal configuration of the recorders REC1,. The internal configuration of the recorders REC1, REC2, REC3, and REC4 is the same. For the sake of simplicity, the recorder REC1, REC2, REC3, and REC4 will be described as the internal configuration of the recorder REC1, for example. In the description of FIG. 5, the recorder REC1 may be replaced with another recorder (for example, the recorder REC2). The recorder REC1 shown in FIG. 5 includes a processor R11, a communication unit R12, a memory R13, a storage R14, and a power management unit R16.
プロセッサR11は、レコーダREC1の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。プロセッサR11は、例えばCPU、MPU、DSP又はFPGAを用いて構成される。 The processor R11 performs signal processing for overall control of operations of each unit of the recorder REC1, data input / output processing with other units, data calculation processing, and data storage processing. The processor R11 is configured using, for example, a CPU, MPU, DSP, or FPGA.
例えばプロセッサR11は、システムコントローラ5又はクライアントPC10を使用するユーザの操作に応じて、各種のカメラ(例えば全方位カメラCAM11、PTZカメラCAM12,CAM13、固定カメラCAM14)により撮像された撮像映像のデータを受信し、この撮像映像のデータを録画映像として撮像日時及びカメラの識別情報と関連付けてストレージR14に保存する。 For example, the processor R11 captures image data captured by various cameras (for example, the omnidirectional camera CAM11, the PTZ cameras CAM12, CAM13, and the fixed camera CAM14) in accordance with a user operation using the system controller 5 or the client PC 10. The captured video data is stored as a recorded video in the storage R14 in association with the imaging date and camera identification information.
通信部R12は、各種のカメラ(例えば全方位カメラCAM11、PTZカメラCAM12,CAM13、固定カメラCAM14)により撮像された撮像映像のデータ又はこの撮像映像がマスク処理されて得られた編集映像(後述参照)を、ルータRUT1を介して受信してプロセッサR11に出力する。また、通信部R12は、クライアントPC10からの指示に応じて、プロセッサR11がストレージR14から読み出した録画映像のデータをクライアントPC10に送信する。 The communication unit R12 captures captured image data captured by various cameras (for example, the omnidirectional camera CAM11, the PTZ cameras CAM12, CAM13, and the fixed camera CAM14) or an edited image obtained by masking the captured image (see below). ) Is received via the router RUT1 and output to the processor R11. Further, the communication unit R12 transmits the recorded video data read from the storage R14 by the processor R11 to the client PC 10 in response to an instruction from the client PC 10.
メモリR13は、レコーダREC1の動作を規定するためのプログラムや設定値のデータが格納されたROM131と、プロセッサR11が生成した各種のデータや処理途中のワークデータを記憶するRAM132とを含む。また、図5には図示されていないが、メモリR13は、レコーダREC1に挿抜自在に接続され、各種データが記憶されるメモリカード(不図示)を更に有しても構わない。 The memory R13 includes a ROM 131 that stores a program for defining the operation of the recorder REC1 and data of set values, and a RAM 132 that stores various data generated by the processor R11 and work data being processed. Although not shown in FIG. 5, the memory R13 may further include a memory card (not shown) that is detachably connected to the recorder REC1 and stores various data.
ストレージR14は、例えば各種のカメラから配信(送信)された撮像映像のデータを記憶する。また、ストレージR14は、クライアントPC10により生成された編集映像のデータがクライアントPC10からレコーダREC1に送信された場合に、その編集映像のデータを記憶しても構わない。 The storage R14 stores captured video data distributed (transmitted) from various cameras, for example. The storage R14 may store the edited video data when the edited video data generated by the client PC 10 is transmitted from the client PC 10 to the recorder REC1.
電源管理部R15は、レコーダREC1の各部に直流電源を供給する。 The power management unit R15 supplies DC power to each unit of the recorder REC1.
次に、本実施形態の監視カメラシステム100の動作について、図6〜図10を参照して詳細に説明する。 Next, the operation of the monitoring camera system 100 of the present embodiment will be described in detail with reference to FIGS.
図6は、カメラ設定画面WD1の一例を示す図である。図7は、領域設定画面WD2の一例を示す図である。図8は、マスク処理(MOR処理)の設定に関するユーザオペレーションに伴う画面の時系列遷移の第1例を示す説明図である。図9は、マスク処理(MOR処理)の設定に関するユーザオペレーションに伴う画面の時系列遷移の第1例を示す説明図である。図10は、第1の実施形態における、マスク処理(MOR処理)の設定に関するユーザオペレーションに伴うクライアントPC10の動作手順の一例を詳細に説明するフローチャートである。 FIG. 6 is a diagram illustrating an example of the camera setting screen WD1. FIG. 7 is a diagram illustrating an example of the area setting screen WD2. FIG. 8 is an explanatory diagram showing a first example of time-series transition of a screen accompanying a user operation related to setting of mask processing (MOR processing). FIG. 9 is an explanatory diagram illustrating a first example of time-series transition of a screen accompanying a user operation regarding setting of mask processing (MOR processing). FIG. 10 is a flowchart for explaining in detail an example of an operation procedure of the client PC 10 in accordance with a user operation regarding the setting of the mask process (MOR process) in the first embodiment.
先ず、図6に示すカメラ設定画面WD1について説明する。 First, the camera setting screen WD1 shown in FIG. 6 will be described.
図6では、カメラ設定画面WD1の一部が抜粋して示されている。マスク処理設定部113は、例えばユーザ操作により、カメラ設定画面WD1をモニタDPに表示する。このカメラ設定画面WD1では、ユーザの操作部13を用いた操作により、例えば最大64台のカメラ(つまり、全方位カメラ、PTZカメラ、固定カメラにより構成)の個々のカメラに対し、少なくともIP(Internet Protocol)アドレス、マスク処理(MOR処理)、マスク処理(MOR処理)の設定、初期学習期間、通常学習期間が関連付けられて設定可能となる。また、カメラ設定画面WD1に設けられた4つのタブ(カメラ1−16,カメラ17−32,カメラ33−48,カメラ49−64)を切り替えることで、カメラ16台単位で、該当するカメラについて、少なくともIP(Internet Protocol)アドレス、マスク処理(MOR処理)、マスク処理(MOR処理)の設定、初期学習期間、通常学習期間の情報を設定可能である。 In FIG. 6, a part of the camera setting screen WD1 is extracted and shown. The mask processing setting unit 113 displays the camera setting screen WD1 on the monitor DP, for example, by a user operation. In this camera setting screen WD1, at least IP (Internet) is provided to individual cameras of, for example, a maximum of 64 cameras (that is, composed of an omnidirectional camera, a PTZ camera, and a fixed camera) by the user's operation using the operation unit 13. Protocol) address, mask processing (MOR processing), setting of mask processing (MOR processing), initial learning period, and normal learning period can be associated and set. In addition, by switching the four tabs (camera 1-16, camera 17-32, camera 33-48, camera 49-64) provided on the camera setting screen WD1, about the corresponding camera in units of 16 cameras, Information on at least an IP (Internet Protocol) address, mask processing (MOR processing), setting of mask processing (MOR processing), initial learning period, and normal learning period can be set.
IPアドレスの列CLM1では、該当するカメラのIPアドレスが入力される。 In the IP address column CLM1, the IP address of the corresponding camera is input.
マスク処理(MOR処理)の列CLM2では、クライアントPC10でのマスク処理(MOR処理)の実行(ON)又は不実行(OFF)の2つのうちいずれかが選択される(枠WK2参照)。 In the column CLM2 of mask processing (MOR processing), either of execution (ON) or non-execution (OFF) of mask processing (MOR processing) in the client PC 10 is selected (see frame WK2).
マスク処理(MOR処理)の設定の列CLM3では、マスク処理(MOR処理)の対象外領域を設定させるための領域設定画面WD2を表示させる設定ボタン(枠WK1参照)が表示される。但し、列CLM2においてONが選択されたカメラについては列CLM3の設定ボタンが押下可能に表示されるが、列CLM2においてOFFが選択されたカメラについては列CLM3の設定ボタンは押下可能に表示されない(例えば列CLM3の図6の紙面上から5段目,8段目,10段目,15段目の点線参照)。 In the column CLM3 for setting the mask process (MOR process), a setting button (see frame WK1) for displaying an area setting screen WD2 for setting a non-target area for the mask process (MOR process) is displayed. However, the setting button of the column CLM3 is displayed so that it can be pressed for a camera for which ON is selected in the column CLM2, but the setting button of the column CLM3 is not displayed so that it can be pressed for a camera for which OFF is selected in the column CLM2. (For example, refer to the dotted lines on the fifth, eighth, tenth, and fifteenth stages from the top of FIG. 6 in the row CLM3).
初期学習期間の列CLM4では、後述するマスク処理(MOR処理)における初期学習期間が入力される(枠WK3参照)。同様に、列CLM2においてONが選択されたカメラについては列CLM4の初期学習期間は入力可能であるが、列CLM2においてOFFが選択されたカメラについては列CLM4の初期学習期間は入力不可である(例えば列CLM4の図6の紙面上から5段目,8段目,10段目,15段目の点線参照)。 In an initial learning period column CLM4, an initial learning period in a mask process (MOR process) described later is input (see frame WK3). Similarly, the initial learning period of the column CLM4 can be input for a camera whose ON is selected in the column CLM2, but the initial learning period of the column CLM4 cannot be input for a camera whose OFF is selected in the column CLM2. For example, see the fifth, eighth, tenth, and fifteenth dotted lines from the top of the page of FIG.
通常学習期間の列CLM5では、後述するマスク処理(MOR処理)における通常学習期間が入力される(枠WK3参照)。同様に、列CLM2においてONが選択されたカメラについては列CLM5の通常学習期間は入力可能であるが、列CLM2においてOFFが選択されたカメラについては列CLM5の通常学習期間は入力不可である(例えば列CLM5の図6の紙面上から5段目,8段目,10段目,15段目の点線参照)。 In the normal learning period column CLM5, a normal learning period in a mask process (MOR process) described later is input (see frame WK3). Similarly, the normal learning period of the column CLM5 can be input for a camera whose ON is selected in the column CLM2, but the normal learning period of the column CLM5 cannot be input for a camera whose OFF is selected in the column CLM2. (For example, refer to the dotted lines on the fifth, eighth, tenth, and fifteenth tiers from the top of FIG. 6 of the row CLM5).
次に、図7に示す領域設定画面WD2について説明する。 Next, the area setting screen WD2 shown in FIG. 7 will be described.
図7では、領域設定画面WD2の全体が示されている。マスク処理設定部113は、ユーザ操作により、カメラ設定画面WD1の列CLM2においてONが選択されたカメラについて列CLM3の設定ボタンが押下されると、領域設定画面WD2をモニタDPに切り替えて表示する。なお、マスク処理設定部113は、カメラ設定画面WD1と領域設定画面WD2とを別個にモニタDPに表示しても構わない。この領域設定画面WD2では、ユーザの操作部13を用いた操作により、カメラにより撮像された撮像映像MV1が映し出されながら、マスク処理(MOR処理)の対象外領域がカメラと関連付けて設定可能となる。 In FIG. 7, the entire area setting screen WD2 is shown. When the setting button of the column CLM3 is pressed for a camera whose ON is selected in the column CLM2 of the camera setting screen WD1, the mask processing setting unit 113 switches the region setting screen WD2 to the monitor DP and displays it. The mask processing setting unit 113 may display the camera setting screen WD1 and the region setting screen WD2 separately on the monitor DP. In this area setting screen WD2, a non-target area for mask processing (MOR processing) can be set in association with the camera while the captured video MV1 captured by the camera is displayed by the user's operation using the operation unit 13. .
領域設定画面WD2では、デバイス名TM1、視覚領域TM2、非視覚領域TM3、削除TM4、画像呼出TM5の各項目と、映像用の表示領域と、設定完了用のセットボタンSTBTとが示されている。映像用の表示領域は、デバイス名TM1により指定されているカメラ(例えばPTZカメラCAM13)により現在撮像されている撮像映像MV1(つまり、ライブ映像)の表示領域である。但し、領域設定画面WD2の映像用の表示領域に映し出される映像は、カメラ(例えばPTZカメラCAM13)により現在撮像されている撮像映像MV1(つまり、ライブ映像)に限定されず、例えばレコーダREC1において既に記憶されている過去の録画映像であっても構わない。この場合には、クライアントPC10は、レコーダREC1から配信(送信)された過去の録画映像を受信して領域設定画面WD2の映像用の表示領域に表示する。 On the area setting screen WD2, items of device name TM1, visual area TM2, non-visual area TM3, deletion TM4, and image call TM5, a display area for video, and a set button STBT for setting completion are shown. . The display area for video is a display area of the captured video MV1 (that is, live video) currently captured by the camera (for example, PTZ camera CAM13) specified by the device name TM1. However, the video displayed in the video display area of the area setting screen WD2 is not limited to the captured video MV1 (that is, live video) currently captured by the camera (for example, the PTZ camera CAM13), and is already in the recorder REC1, for example. It may be a recorded video recorded in the past. In this case, the client PC 10 receives the past recorded video distributed (transmitted) from the recorder REC1, and displays it in the video display area of the area setting screen WD2.
デバイス名TM1では、例えばPTZカメラCAM13が示されている。 In the device name TM1, for example, a PTZ camera CAM13 is shown.
視覚領域TM2には、マスク処理の対象外領域を指定するための領域選択ボタンVA1、VA2,VA3が表示されている。言い換えると、マスク処理の対象外領域に指定されると、その領域内に移動する人物がいても、マスク処理されず、映像中に映し出されることになる。領域選択ボタンVA1は、マスク処理の対象外領域を四角形(例えば矩形状)で指定するために使用される(図8参照)。領域選択ボタンVA2は、マスク処理の対象外領域を多角形(例えば五角形)で指定するために使用される(図9参照)。領域選択ボタンVA3は、領域選択ボタンVA1又は領域選択ボタンVA2の操作によって指定されたマスク処理の対象外領域を選択するために使用される。 In the visual area TM2, area selection buttons VA1, VA2, and VA3 for designating areas not to be masked are displayed. In other words, if a region that is not subject to mask processing is designated, even if there is a person who moves within that region, the mask processing is not performed and the image is displayed in the video. The area selection button VA1 is used to designate a non-target area for mask processing with a rectangle (for example, a rectangular shape) (see FIG. 8). The area selection button VA2 is used for designating a non-maskable area as a polygon (for example, a pentagon) (see FIG. 9). The area selection button VA3 is used to select a mask processing non-target area designated by operating the area selection button VA1 or the area selection button VA2.
非視覚領域TM3には、撮像映像から隠す領域(隠し領域)を指定するための領域選択ボタンIVA1、IVA2,IVA3が表示されている。言い換えると、隠し領域に指定されると、その隠し領域内は例えば黒色で塗りつぶされて、映像中に映し出されなくなる。領域選択ボタンIVA1は、隠し領域を四角形(例えば矩形状)で指定するために使用される。領域選択ボタンIVA2は、隠し領域を多角形(例えば五角形)で指定するために使用される。領域選択ボタンIVA3は、領域選択ボタンIVA1又は領域選択ボタンIVA2の操作によって指定された隠し領域を選択するために使用される。 In the non-visual area TM3, area selection buttons IVA1, IVA2, and IVA3 for designating an area (hidden area) to be hidden from the captured image are displayed. In other words, when a hidden area is designated, the hidden area is filled with, for example, black, and is not displayed in the video. The area selection button IVA1 is used to designate a hidden area with a quadrangle (for example, a rectangular shape). The area selection button IVA2 is used to designate a hidden area with a polygon (for example, a pentagon). The area selection button IVA3 is used to select a hidden area designated by the operation of the area selection button IVA1 or the area selection button IVA2.
削除TM4には、選択された一つのマスク処理の対象外領域又は選択された一つの隠し領域を削除するための選択ボタンDL1と、選択された全てのマスク処理の対象外領域又は選択された全ての隠し領域を削除するための選択ボタンDL2とが表示されている。なお、マスク処理の対象外領域又は隠し領域において一つだけが選択されている場合には、撮像映像MV1中において、該当する領域部分が点線で示される。 The deletion TM4 includes a selection button DL1 for deleting one selected mask processing non-target area or one selected hidden area, and all selected mask processing non-target areas or all selected mask processing. A selection button DL2 for deleting the hidden area is displayed. Note that, when only one of the non-masking target areas or the hidden areas is selected, the corresponding area portion is indicated by a dotted line in the captured video MV1.
セットボタンSTBTは、マスク処理の対象外領域や隠し領域が指定された場合に、その指定されたマスク処理の対象外領域や隠し領域を確定するために、ユーザ操作によって押下される。従って、マスク処理設定部113は、セットボタンSTBTの押下により、指定されたマスク処理の対象外領域や隠し領域の位置情報(より具体的には、撮像映像MV1中の位置情報)をデバイス名TM1により特定されるカメラに関連付けてストレージ15又はメモリ16に保存する。 The set button STBT is pressed by a user operation when a non-masking target area or a hidden area is designated and the designated mask processing non-target area or hidden area is determined. Accordingly, the mask processing setting unit 113 displays the position information (more specifically, the position information in the captured video MV1) of the specified non-target mask processing area and the hidden area by pressing the set button STBT. The data is stored in the storage 15 or the memory 16 in association with the camera specified by the above.
ここで、マスク処理の対象外領域の設定について、例えば図8及び図10を参照して説明する。カメラ設定画面WD1(図6参照)を表示するためのユーザ操作により、マスク処理設定部113は、カメラ設定画面WD1をモニタDPに表示する(S1)。 Here, the setting of the non-target area for the mask process will be described with reference to FIGS. 8 and 10, for example. By a user operation for displaying the camera setting screen WD1 (see FIG. 6), the mask processing setting unit 113 displays the camera setting screen WD1 on the monitor DP (S1).
ユーザ操作により、カメラ設定画面WD1(図6参照)のPTZカメラCAM13のレコードの列CLM2がONに選択され、かつ同レコードの列CLM3の設定ボタン(枠WK1参照)が押下されると(S2、YES)、マスク処理設定部113は、PTZカメラCAM13に対応する領域設定画面WD2をモニタDPに表示する(S3)。列CLM3の設定ボタンが押下されない限り(S2、NO)、クライアントPC10のプロセッサ11の処理はステップS3に進まない。 When a user operation selects the column CLM2 of the record of the PTZ camera CAM13 on the camera setting screen WD1 (see FIG. 6) and the setting button (see the frame WK1) of the column CLM3 of the record is pressed (S2, YES), the mask processing setting unit 113 displays an area setting screen WD2 corresponding to the PTZ camera CAM13 on the monitor DP (S3). Unless the setting button of the column CLM3 is pressed (S2, NO), the processing of the processor 11 of the client PC 10 does not proceed to step S3.
図8の領域設定画面WD2において、ユーザ操作により、視覚領域TM2の領域選択ボタンVA1(例えば四角形状の領域選択ボタンVA1)が押下され(S4)、かつ、人物JB1,JB2,JB3が映っている撮像映像MV1中のテレビ装置の周囲をドラッグ操作等によって囲むように指定されたとする(S5)。マスク処理設定部113は、領域設定画面WD3において、領域選択ボタンVA1により指定されたテレビ装置の周囲に四角形状の枠JGA1を描画する。更に、マスク処理設定部113は、領域設定画面WD3において、ユーザ操作によってセットボタンSTBTが押下されたことを契機に(S6)、枠JGA1の位置情報(例えば座標情報)をマスク処理の対象外領域として、PTZカメラCAM13と関連付けたカメラ設定情報を生成してストレージ15又はメモリ16に保存する(S7)。マスク処理部114は、マスク処理設定部113により生成されたカメラ設定情報を参照し、撮像映像MV1中の枠JGA1の内部以外の移動体(例えば人物JB1,JB2,JB3)をマスク画像MK1,MK2,MK3に変更するためのマスク処理を行う。映像出力制御部115は、マスク処理部114により生成されたマスク画像MK1,MK2,MK3と撮像映像MV1とを用いた編集映像を生成してモニタDPの映像表示画面WD4に表示する。 In the area setting screen WD2 of FIG. 8, the area selection button VA1 (for example, a rectangular area selection button VA1) of the visual area TM2 is pressed by a user operation (S4), and the persons JB1, JB2, and JB3 are shown. It is assumed that the television apparatus in the captured video MV1 is designated to be surrounded by a drag operation or the like (S5). The mask processing setting unit 113 draws a rectangular frame JGA1 around the television device designated by the region selection button VA1 on the region setting screen WD3. Further, the mask processing setting unit 113 uses the position information (for example, coordinate information) of the frame JGA1 as a region not to be masked when the set button STBT is pressed by a user operation on the region setting screen WD3 (S6). Then, camera setting information associated with the PTZ camera CAM 13 is generated and stored in the storage 15 or the memory 16 (S7). The mask processing unit 114 refers to the camera setting information generated by the mask processing setting unit 113 and masks moving bodies (for example, persons JB1, JB2, JB3) other than the inside of the frame JGA1 in the captured video MV1 as mask images MK1, MK2. , MK3 to perform mask processing. The video output control unit 115 generates an edited video using the mask images MK1, MK2, and MK3 generated by the mask processing unit 114 and the captured video MV1, and displays the edited video on the video display screen WD4 of the monitor DP.
これにより、枠JGA1の内部はマスク処理の対象外領域であるためにマスク処理は行われず、例えば映像表示画面WD4の枠NMK1内のテレビ装置に移動する人物が映し出されたとしても、その人物はマスク画像(例えばマスク画像MK1)に変更されず、映像表示画面WD4に映し出される編集映像の視認性の劣化を抑制できる。 Thereby, since the inside of the frame JGA1 is a non-masking target area, the masking process is not performed. For example, even if a person moving to the television set in the frame NMK1 of the video display screen WD4 is displayed, It is possible to suppress the deterioration of the visibility of the edited video displayed on the video display screen WD4 without being changed to the mask image (for example, the mask image MK1).
なお、映像出力制御部115は、マスク処理部114におけるマスク処理の中で実行される通常学習(後述参照)を実行している時は、マスク処理(より具体的には通常学習)を実行していることを示す「MOR Running」のインジケータID1を映像表示画面WD4の左上端(Upper left)に表示する。これにより、ユーザは、クライアントPC10においてマスク処理が実行されている状態をモニタDPの映像表示画面WD4を閲覧することで、視覚的かつ簡単に把握できる。 Note that the video output control unit 115 executes mask processing (more specifically, normal learning) when performing normal learning (see below) executed during mask processing in the mask processing unit 114. “MOR Running” indicator ID1 indicating that the image is displayed on the upper left of the video display screen WD4. Accordingly, the user can visually and easily grasp the state in which the mask process is being executed in the client PC 10 by browsing the video display screen WD4 of the monitor DP.
ここで、マスク処理の対象外領域の設定について、例えば図9及び図10を参照して説明する。カメラ設定画面WD1(図6参照)を表示するためのユーザ操作により、マスク処理設定部113は、カメラ設定画面WD1をモニタDPに表示する(S1)。 Here, the setting of the non-target area for mask processing will be described with reference to FIGS. 9 and 10, for example. By a user operation for displaying the camera setting screen WD1 (see FIG. 6), the mask processing setting unit 113 displays the camera setting screen WD1 on the monitor DP (S1).
ユーザ操作により、カメラ設定画面WD1(図6参照)のPTZカメラCAM13のレコードの列CLM2がONに選択され、かつ同レコードの列CLM3の設定ボタン(枠WK1参照)が押下されると(S2、YES)、マスク処理設定部113は、PTZカメラCAM13に対応する領域設定画面WD2をモニタDPに表示する(S3)。列CLM3の設定ボタンが押下されない限り(S2、NO)、クライアントPC10のプロセッサ11の処理はステップS3に進まない。 When a user operation selects the column CLM2 of the record of the PTZ camera CAM13 on the camera setting screen WD1 (see FIG. 6) and the setting button (see the frame WK1) of the column CLM3 of the record is pressed (S2, YES), the mask processing setting unit 113 displays an area setting screen WD2 corresponding to the PTZ camera CAM13 on the monitor DP (S3). Unless the setting button of the column CLM3 is pressed (S2, NO), the processing of the processor 11 of the client PC 10 does not proceed to step S3.
図9の領域設定画面WD2において、ユーザ操作により、視覚領域TM2の領域選択ボタンVA2(例えば五角形状の領域選択ボタンVA2)が押下され(S4)、かつ、人物JB1,JB2,JB3が映っている撮像映像MV1中の人物JB1の頭部周辺が囲まれるように五角形の頂点PT1,PT2,PT3の選択及び頂点間の辺がドラッグ操作等によって指定されたとする(S5)。マスク処理設定部113は、領域設定画面WD3において、領域選択ボタンVA2により指定された人物JB1の頭部周辺に五角形状の枠JGA2を描画する。更に、マスク処理設定部113は、領域設定画面WD3において、ユーザ操作によってセットボタンSTBTが押下されたことを契機に(S6)、枠JGA2の位置情報(例えば座標情報)をマスク処理の対象外領域として、PTZカメラCAM13と関連付けたカメラ設定情報を生成してストレージ15又はメモリ16に保存する(S7)。マスク処理部114は、マスク処理設定部113により生成されたカメラ設定情報を参照し、撮像映像MV1中の枠JGA2の内部以外の移動体(例えば人物JB2,JB3)をマスク画像MK2,MK3(図8参照)に変更するためのマスク処理を行う。映像出力制御部115は、マスク処理部114により生成されたマスク画像MK2,MK3と撮像映像MV1とを用いた編集映像を生成してモニタDPの映像表示画面(不図示)に表示する。 In the area setting screen WD2 of FIG. 9, the area selection button VA2 (for example, the pentagonal area selection button VA2) of the visual area TM2 is pressed by the user operation (S4), and the persons JB1, JB2, and JB3 are shown. It is assumed that the pentagonal vertices PT1, PT2, PT3 are selected and the sides between the vertices are designated by a drag operation or the like so that the head periphery of the person JB1 in the captured video MV1 is surrounded (S5). The mask processing setting unit 113 draws a pentagonal frame JGA2 around the head of the person JB1 designated by the region selection button VA2 on the region setting screen WD3. Furthermore, the mask processing setting unit 113 uses the position information (for example, coordinate information) of the frame JGA2 as an area not to be masked when the set button STBT is pressed by a user operation on the area setting screen WD3 (S6). Then, camera setting information associated with the PTZ camera CAM 13 is generated and stored in the storage 15 or the memory 16 (S7). The mask processing unit 114 refers to the camera setting information generated by the mask processing setting unit 113 and masks moving bodies (for example, persons JB2, JB3) other than the inside of the frame JGA2 in the captured video MV1 as mask images MK2, MK3 (FIG. 8)) is performed. The video output control unit 115 generates an edited video using the mask images MK2 and MK3 generated by the mask processing unit 114 and the captured video MV1 and displays it on a video display screen (not shown) of the monitor DP.
これにより、枠JGA2の内部はマスク処理の対象外領域であるためにマスク処理は行われず、例えば映像表示画面(不図示)内の人物JB1の頭部周辺で移動する人物が映し出されたとしても、その人物はマスク画像(例えばマスク画像MK1)に変更されず、映像表示画面に映し出される編集映像の視認性の劣化を抑制できる。 Thereby, since the inside of the frame JGA2 is a non-masking target area, the masking process is not performed. For example, even if a person moving around the head of the person JB1 in the video display screen (not shown) is projected. The person is not changed to the mask image (for example, the mask image MK1), and the degradation of the visibility of the edited video displayed on the video display screen can be suppressed.
次に、クライアントPC10のプロセッサ11におけるマスク処理(MOR処理)の動作内容の詳細について、図11及び図12を参照して説明する。図11は、各実施形態に共通するマスク処理(MOR処理)の動作手順の一例を詳細に説明するフローチャートである。図12は、図11のステップS15,S16における背景画像の更新処理の動作手順の一例を詳細に説明するフローチャートである。 Next, details of the operation contents of the mask process (MOR process) in the processor 11 of the client PC 10 will be described with reference to FIGS. 11 and 12. FIG. 11 is a flowchart illustrating in detail an example of an operation procedure of mask processing (MOR processing) common to the embodiments. FIG. 12 is a flowchart illustrating in detail an example of the operation procedure of the background image update process in steps S15 and S16 of FIG.
図11において、プロセッサ11の背景画像処理部112は、画像入力部111により取得された撮像映像(例えばカメラにより撮像開始されてから一定時間分の撮像映像)を分析し、この撮像映像中で動きの無い領域(以下、「静止領域」という)からなる背景画像を生成する(S11)。以下、このステップS11の処理を、マスク処理(MOR処理)における「初期学習」と定義する。 In FIG. 11, the background image processing unit 112 of the processor 11 analyzes a captured video (for example, a captured video for a certain period of time after the start of imaging by the camera) acquired by the image input unit 111 and moves in the captured video. A background image made up of a region without an image (hereinafter referred to as “still region”) is generated (S11). Hereinafter, the process of step S11 is defined as “initial learning” in the mask process (MOR process).
図13は、初期学習による背景画像の生成手順を模式的に示す説明図である。背景画像処理部112は、一定時間分の撮像映像を取得し、撮像映像を構成する複数の撮像画像(図13の紙面左側参照)において、公知の画像処理(例えばフレーム間差分の演算)により、撮像画像のフレーム間において静止領域と動きのある領域(以下、「動体領域」という)とを検知する。図13では人物JB4が移動体として示されている。背景画像処理部112は、上述した画像処理により、動きの無い領域(つまり、静止領域)からなる背景画像BG1を生成する。 FIG. 13 is an explanatory diagram schematically showing a procedure for generating a background image by initial learning. The background image processing unit 112 acquires captured video for a certain period of time, and in a plurality of captured images constituting the captured video (see the left side of the paper in FIG. 13), by known image processing (for example, calculation of difference between frames), A still area and a moving area (hereinafter referred to as “moving body area”) are detected between frames of the captured image. In FIG. 13, the person JB4 is shown as a moving object. The background image processing unit 112 generates a background image BG1 including a region without motion (that is, a still region) by the above-described image processing.
なお、ステップS11の初期学習の処理中では、背景画像処理部112は撮像映像中において静止領域と動体領域との分離を行うことができない。このため、初期学習の期間中の撮像映像はモニタDPに表示されない。言い換えると、映像出力制御部115は、初期学習の期間中は、カメラから配信(送信)された撮像映像をモニタDPに表示しない。 Note that during the initial learning process of step S11, the background image processing unit 112 cannot separate the still area and the moving object area in the captured video. For this reason, the captured image during the initial learning period is not displayed on the monitor DP. In other words, the video output control unit 115 does not display the captured video distributed (transmitted) from the camera on the monitor DP during the initial learning period.
図14は、マスク処理(MOR処理)の概念を模式的に示す説明図である。ステップS11の初期学習の終了後、プロセッサ11のマスク処理部114は、ステップS11において生成された背景画像BG1の画素値(例えば輝度値又はRGB(Red Green Blue)値。以下同様。)とカメラから配信(送信)された現在の撮像映像AA1の画素値とを、背景画像や撮像映像を構成する画素の単位又は複数の画素からなる所定画素領域の単位(例えば4画素×4画素の単位)で比較する。 FIG. 14 is an explanatory diagram schematically showing the concept of mask processing (MOR processing). After the completion of the initial learning in step S11, the mask processing unit 114 of the processor 11 uses the pixel value (for example, luminance value or RGB (Red Green Blue) value, etc.) of the background image BG1 generated in step S11 and the camera. The pixel value of the current captured video AA1 distributed (transmitted) is determined in units of pixels constituting a background image or captured video or a unit of a predetermined pixel area composed of a plurality of pixels (for example, a unit of 4 pixels × 4 pixels). Compare.
マスク処理部114は、上述した比較の結果として、画素値が一定の閾値(既知)より大きな差異がある撮像映像中の領域を動体領域OB1と判断する(S12)。マスク処理部114は、動体領域と判断した撮像映像中の該当部分の画像をマスク画像MSK1(例えば半透明画像)に変更し、マスク画像MSK1を撮像映像AA1中の動体領域に重畳した編集映像BB1を生成してモニタDPに表示する(S13)。なお、編集映像BB1をモニタDPに表示する処理は、映像出力制御部115により行われても構わない。また、マスク処理部114は、生成した編集映像BB1を、カメラの識別番号(例えばカメラID)と関連付けて、ストレージ15又はメモリ16に保存してもよいしレコーダ(例えばレコーダREC1)に送信して記憶させても構わない。例えばマスク処理部114により、例えば撮像映像中の移動体(例えば人物)が半透明画像のマスク画像MSK1に置き換えられた場合、撮像映像に現れる人物の輪郭線内部が半透明になり背景画像が透けて見えて背景に何があるかもわかる。これにより、人物がマスク画像MSK1に置き換えられたとしても、人物のプライバシーの保護をしながら映像としての視認性も確保できる。 As a result of the comparison described above, the mask processing unit 114 determines that the region in the captured image having a pixel value larger than a certain threshold (known) is the moving object region OB1 (S12). The mask processing unit 114 changes the image of the corresponding part in the captured video determined to be the moving object region to the mask image MSK1 (for example, a translucent image), and the edited video BB1 in which the mask image MSK1 is superimposed on the moving object region in the captured video AA1. Is generated and displayed on the monitor DP (S13). The process of displaying the edited video BB1 on the monitor DP may be performed by the video output control unit 115. Further, the mask processing unit 114 may store the generated edited video BB1 in the storage 15 or the memory 16 in association with the camera identification number (for example, camera ID) or transmit it to the recorder (for example, the recorder REC1). You may memorize it. For example, when a moving body (for example, a person) in a captured image is replaced by a mask image MSK1 of a translucent image by the mask processing unit 114, for example, the outline of the person appearing in the captured image becomes translucent and the background image is transparent. You can see what is in the background. Thereby, even if a person is replaced with the mask image MSK1, it is possible to ensure visibility as a video while protecting the privacy of the person.
一方、マスク処理部114は、上述した比較の結果として、画素値が一定の閾値(既知)より小さな差異となった撮像映像中の領域を静止領域と判断する(S14)。マスク処理部114は、静止領域と判断した撮像映像中の該当部分の画像を現在の撮像映像又は背景画像としてそのままモニタDPに表示する(S14)。なお、静止領域と判断された撮像映像中の該当部分の画像をモニタDPに表示する処理は、映像出力制御部115により行われても構わない。また、マスク処理部114は、静止領域と判断した撮像映像中の該当部分の画像を、カメラの識別番号(例えばカメラID)と関連付けて、ストレージ15又はメモリ16に保存してもよいしレコーダ(例えばレコーダREC1)に送信して記憶させても構わない。また、ステップS12,S13,S14は時系列の順に沿って行われるものではなく、並行してほぼ同時又は同時に行われる。ステップS15,S16についても同様である。 On the other hand, as a result of the comparison described above, the mask processing unit 114 determines an area in the captured image in which the pixel value is smaller than a certain threshold (known) as a still area (S14). The mask processing unit 114 displays the image of the corresponding part in the captured image determined to be a still area as it is on the monitor DP as the current captured image or background image (S14). Note that the video output control unit 115 may perform the process of displaying the image of the corresponding part in the captured video determined to be a still region on the monitor DP. Further, the mask processing unit 114 may store the image of the corresponding part in the captured video determined to be a still area in the storage 15 or the memory 16 in association with the camera identification number (for example, camera ID) or the recorder ( For example, it may be transmitted and stored in the recorder REC1). Steps S12, S13, and S14 are not performed in the order of time series, but are performed substantially simultaneously or simultaneously in parallel. The same applies to steps S15 and S16.
ステップS14の後、背景画像処理部112は、ステップS14において静止領域と判断された映像領域について、その映像領域とステップS11において生成された背景画像とを用いて背景画像を更新する(S15)。例えば背景画像に対して1秒に1回の更新処理(図12参照)を行い、新しい撮像映像の情報を1%、現在の背景画像の情報を99%使用する場合には、およそ100秒後に背景画像は全面的に更新される。ステップS15の処理の詳細については、図12を参照して後述する。 After step S14, the background image processing unit 112 updates the background image of the video area determined as the still area in step S14 using the video area and the background image generated in step S11 (S15). For example, when the background image is updated once per second (see FIG. 12) and 1% of the information of the new captured video is used and 99% of the information of the current background image is used, about 100 seconds later. The background image is completely updated. Details of the processing in step S15 will be described later with reference to FIG.
ステップS14の後、背景画像処理部112は、ステップS12において動体領域と判断された映像領域について、その映像領域とステップS11において生成された背景画像とを用いて背景画像を更新する(S16)。以下、これらのステップS15,S16の処理を、マスク処理(MOR処理)における「通常学習」を定義する。例えば背景画像に対して1秒に1回の更新処理(図12参照)を行い、新しい撮像映像の情報を0.1%、現在の背景画像の情報を99.9%使用する場合には、およそ1000秒後に背景画像は全面的に更新される。この場合、通常学習の期間は、上述したステップS15で例示した100秒と、ステップS16で例示した1000秒のうち長い方の期間(つまり、1000秒=およそ17分程度)となる。ステップS16の処理の詳細については、図12を参照して後述する。 After step S14, the background image processing unit 112 updates the background image of the video area determined as the moving object area in step S12 using the video area and the background image generated in step S11 (S16). Hereinafter, “normal learning” in the mask process (MOR process) is defined as the process in steps S15 and S16. For example, when updating the background image once a second (see FIG. 12) and using 0.1% of new captured video information and 99.9% of current background image information, The background image is completely updated after about 1000 seconds. In this case, the normal learning period is the longer period (ie, 1000 seconds = about 17 minutes) of the 100 seconds exemplified in step S15 and the 1000 seconds exemplified in step S16. Details of the processing in step S16 will be described later with reference to FIG.
ステップS15,S16の後、マスク処理(MOR処理)が終了する場合には(S17、YES)、図11に示すプロセッサ11の処理は終了する。一方、ステップS15,S16の後、マスク処理(MOR処理)が終了しない場合には(S17、YES)、プロセッサ11の処理はステップS12に戻る。 If the mask process (MOR process) ends after steps S15 and S16 (S17, YES), the process of the processor 11 shown in FIG. 11 ends. On the other hand, if the mask process (MOR process) does not end after steps S15 and S16 (S17, YES), the process of the processor 11 returns to step S12.
ステップS15,S16の各処理は、図12に示す処理の順に行われる。ステップS15の処理とステップS16の処理との違いは、後述する背景画像更新比率Xの値である。図12の説明では、例えば、ステップS15の処理に関しては背景画像更新比率X=0.01(=1%)とし、ステップS16の処理に関しては背景画像更新比率X=0.001(=0.1%)とする。 Each process of step S15 and S16 is performed in the order of the process shown in FIG. The difference between the process of step S15 and the process of step S16 is a value of a background image update ratio X described later. In the description of FIG. 12, for example, the background image update ratio X = 0.01 (= 1%) for the process of step S15, and the background image update ratio X = 0.001 (= 0.1) for the process of step S16. %).
具体的に説明すると、背景画像更新比率X=0.01(=1%)とは、背景画像の更新において、新しい撮像映像の情報を1%使用し、現在の背景画像の情報を99%使用することを意味する。同様に、背景画像更新比率X=0.001(=0.1%)とは、背景画像の更新において、新しい撮像映像の情報を0.1%使用し、現在の背景画像を99.9%使用することを意味する。いずれにせよ、背景画像の更新では、背景画像更新比率Xの値に応じて、新しい撮像映像の情報を取り入れることを意味する。 More specifically, the background image update ratio X = 0.01 (= 1%) means that 1% of new captured video information is used and 99% of current background image information is used in the background image update. It means to do. Similarly, the background image update ratio X = 0.001 (= 0.1%) means that 0.1% of the information of the new captured video is used in the update of the background image, and the current background image is 99.9%. Means to use. In any case, updating the background image means taking in information of a new captured video in accordance with the value of the background image update ratio X.
図12の説明では画素値をRGB値(つまり、画像中の画素における赤色、緑色、青色の強さを示す値)とする。なお、カラーテーブルが24ビットRGBの場合、(R,G,B)=(255,255,255)は白色を示し、(R,G,B)=(0,0,0)は黒色を示し、(R,G,B)=(255,0,0)は赤色を示し、(R,G,B)=(0,255,0)は緑色を示し、(R,G,B)=(0,0,255)は青色を示す。 In the description of FIG. 12, the pixel value is an RGB value (that is, a value indicating the intensity of red, green, and blue in the pixel in the image). When the color table is 24-bit RGB, (R, G, B) = (255, 255, 255) indicates white, and (R, G, B) = (0, 0, 0) indicates black. , (R, G, B) = (255, 0, 0) indicates red, (R, G, B) = (0, 255, 0) indicates green, and (R, G, B) = ( 0, 0, 255) indicates blue.
図12において、背景画像処理部112は、更新対象となる背景画像を構成する画素の座標(x,y)を(0,0)に設定する(S21)。背景画像処理部112は、現在の撮像映像から座標(x,y)の画素における画素値(R0,G0,B0)を取得する(S22)。背景画像処理部112は、現在の背景画像(例えばステップS11の初期学習において生成された背景画像)から座標(x,y)の画素における画素値(R1,G1,B1)を取得する(S23)。 In FIG. 12, the background image processing unit 112 sets the coordinates (x, y) of the pixels constituting the background image to be updated to (0, 0) (S21). The background image processing unit 112 acquires the pixel value (R0, G0, B0) at the pixel at coordinates (x, y) from the current captured video (S22). The background image processing unit 112 acquires the pixel values (R1, G1, B1) at the pixel at coordinates (x, y) from the current background image (for example, the background image generated in the initial learning in step S11) (S23). .
背景画像処理部112は、ステップS22において取得した画素値(R0,G0,B0)とステップS23において取得した画素値(R1,G1,B1)とを用いて、数式(1)〜数式(3)に従って、更新後の背景画像を構成する画素の座標(x,y)における画素値(R2,G2,B2)を算出する(S24)。 The background image processing unit 112 uses the pixel values (R0, G0, B0) acquired in step S22 and the pixel values (R1, G1, B1) acquired in step S23, and formulas (1) to (3). Accordingly, the pixel values (R2, G2, B2) at the coordinates (x, y) of the pixels constituting the updated background image are calculated (S24).
R2=R0×X+R1×(1.0−X)・・・(1)
G2=G0×X+G1×(1.0−X)・・・(2)
B2=B0×X+B1×(1.0−X)・・・(3)
R2 = R0 × X + R1 × (1.0−X) (1)
G2 = G0 × X + G1 × (1.0−X) (2)
B2 = B0 × X + B1 × (1.0−X) (3)
例えばR0=100、R1=50、X=0.1(=10%)の場合には、数式(1)により、R2=100×0.1+50×0.9=55と算出される。これにより、背景画像処理部112は、該当する画素のR(要素)値は50(=R1)から55(=R2)に更新することができる。 For example, in the case of R0 = 100, R1 = 50, and X = 0.1 (= 10%), R2 = 100 × 0.1 + 50 × 0.9 = 55 is calculated by Equation (1). Thereby, the background image processing unit 112 can update the R (element) value of the corresponding pixel from 50 (= R1) to 55 (= R2).
ステップS24の後、背景画像処理部112が更新対象となる背景画像の全ての画素の座標(x,y)について数式(1)〜数式(3)を用いた算出により画素値が更新された場合には(S25、YES)、図12に示す背景画像処理部112の処理は終了する。 After step S24, when the background image processing unit 112 updates the pixel values by calculation using the equations (1) to (3) for the coordinates (x, y) of all the pixels of the background image to be updated. (S25, YES), the processing of the background image processing unit 112 shown in FIG. 12 ends.
一方、ステップS24の後、背景画像処理部112が更新対象となる背景画像の全ての画素の座標(x,y)について数式(1)〜数式(3)を用いた算出により画素値が更新されていない場合には(S25、NO)、背景画像処理部112は、画素の座標(x,y)を次の座標に設定する(S26)。ステップS26の後、背景画像処理部112の処理はステップS22に戻る。 On the other hand, after step S24, the pixel value is updated by calculation using Equations (1) to (3) for the coordinates (x, y) of all the pixels of the background image to be updated by the background image processing unit 112. If not (S25, NO), the background image processing unit 112 sets the coordinates (x, y) of the pixel to the next coordinates (S26). After step S26, the background image processing unit 112 returns to step S22.
これにより、プロセッサ11は、図11及び図12に示すマスク処理(MOR)を行うことで、撮像映像中において動きのある領域(例えば人物)についてマスク画像に変更することで、その動体領域中の人物等が誰であるかの特定を困難にする編集映像を生成してモニタDPに表示することができ、その人物のプライバシーの保護を図ることができる。また、プロセッサ11は、例えば撮像エリアに新しい固定物が設置されたり、電灯が消灯したり点灯したりする等の環境変化が生じた場合でも、その環境変化に追従した背景画像に更新することができる。例えば、プロセッサ11は、新しく設置された固定物を背景画像に取り込む更新を行うことが可能となり、環境変化に即した適切な編集映像を生成してモニタDPに映し出すことも可能である。 Accordingly, the processor 11 performs the mask process (MOR) shown in FIGS. 11 and 12 to change a moving area (for example, a person) in the captured image into a mask image, so that An edited video that makes it difficult to identify who the person is can be generated and displayed on the monitor DP, and the privacy of the person can be protected. Further, the processor 11 can update the background image to follow the environmental change even when an environmental change occurs, for example, when a new fixed object is installed in the imaging area, or the light is turned off or turned on. it can. For example, the processor 11 can update a newly-installed fixed object in the background image, and can also generate an appropriate edited video corresponding to the environmental change and display it on the monitor DP.
なお、ステップS16の処理では、新しい固定物が静止領域であることを背景画像処理部112が判断するための十分な時間が経過した後に、背景画像として取り込まれるために、環境に即した適切な背景追従時間の経過後に背景画像に取り込まれることが好ましい。背景追従時間は、通常学習の期間に相当するものである。例えば道路上の人物等、停止する可能性が低い環境(例えば場所)では、背景追従時間は短めの通常学習の期間(例えば5分=300秒)が設定されることが好ましい。一方、例えば図書館、オフィス、工場の人物等、停止する可能性が高い環境(例えば場所)では、背景追従時間は長めの通常学習の期間(例えば20分=1200秒)が設定されることが好ましい。 In the process of step S16, after a sufficient time for the background image processing unit 112 to determine that the new fixed object is a static region has elapsed, it is captured as a background image. It is preferable that the background image is captured after the background follow-up time has elapsed. The background follow-up time corresponds to a normal learning period. For example, in an environment (for example, a place) where the possibility of stopping is low, such as a person on a road, it is preferable to set a normal learning period (for example, 5 minutes = 300 seconds) with a short background following time. On the other hand, in an environment (for example, a place) where there is a high possibility of stopping such as a person in a library, office, factory, etc., the background follow-up time is preferably set to a longer normal learning period (for example, 20 minutes = 1200 seconds). .
以上により、第1の実施形態の監視カメラシステム100は、撮像エリアを撮像する少なくとも一つのカメラ(例えば全方位カメラCAM11,…)と、カメラにより撮像された撮像エリアの撮像映像AA1、又は撮像映像AA1に現れる人物の動体領域OB1の少なくとも一部又は全体をマスク画像に変更するためのマスク処理を行って得た編集映像BB1をモニタDPに表示するクライアントPC10と、を備える。また、クライアントPC10は、撮像映像MV1の表示領域を含む、マスク処理の対象外領域を設定するための領域設定画面WD2をモニタDPに表示する(図7参照)。クライアントPC10は、ユーザ操作に応じて、領域設定画面WD2内の撮像映像MV1の表示領域の中で指定された領域(例えば図8に示す枠JGA1参照)をマスク処理の対象外領域とするカメラ設定情報を、撮像映像MV1に対応するカメラ(例えばその撮像映像を配信したカメラ)と関連付けてストレージ15又はメモリ16に記憶する。 As described above, the surveillance camera system 100 according to the first embodiment includes at least one camera (for example, the omnidirectional camera CAM11,...) That images the imaging area, and the captured image AA1 or the captured image of the imaging area captured by the camera. A client PC 10 that displays on the monitor DP an edited video BB1 obtained by performing a mask process for changing at least part or all of the moving object region OB1 of the person appearing in AA1 into a mask image. In addition, the client PC 10 displays an area setting screen WD2 for setting a non-masking target area including the display area of the captured video MV1 on the monitor DP (see FIG. 7). In response to a user operation, the client PC 10 performs camera setting in which an area specified in the display area of the captured video MV1 in the area setting screen WD2 (see, for example, the frame JGA1 illustrated in FIG. 8) is not subjected to mask processing. The information is stored in the storage 15 or the memory 16 in association with the camera corresponding to the captured video MV1 (for example, the camera that distributed the captured video).
これにより、クライアントPC10は、各種のカメラが設置された場所の環境に適合するように、ユーザの簡単な操作によって、クライアントPC10において行われるマスク処理(MOR処理)の対象外領域をカメラごとに個別に設定することができる。従って、監視カメラシステム100は、何かのトラブルがあった場合にそのトラブルの原因究明を効率的に行うために、カメラ(例えばPTZカメラCAM13)から配信された撮像映像MV1やレコーダ(例えばレコーダREC1)から配信されたカメラの撮像映像MV1内に映る人物をマスク画像に変更できるのでその人物のプライバシーを保護できるとともに、マスク処理(MOR処理)の対象外領域に映ったカメラの撮像映像の視認性の劣化を抑制できる。つまり、監視カメラシステム100は、カメラが設置された場所の環境に適合するように、カメラの撮像映像内に映る人物のプライバシーの保護とカメラの撮像映像の視認性の劣化の抑制とを両立し、ユーザの使い勝手を向上することができる。 As a result, the client PC 10 individually sets the non-target area of the mask process (MOR process) performed in the client PC 10 for each camera by a simple operation of the user so as to suit the environment of the place where the various cameras are installed. Can be set to Therefore, in order to efficiently investigate the cause of the trouble when there is any trouble, the surveillance camera system 100 captures the captured video MV1 or recorder (for example, the recorder REC1) distributed from the camera (for example, the PTZ camera CAM13). ) Can be changed to a mask image so that the person's privacy can be protected, and the visibility of the camera's captured image displayed in an area not subject to mask processing (MOR processing) can be changed. Can be prevented. In other words, the surveillance camera system 100 achieves both the protection of the privacy of the person shown in the captured image of the camera and the suppression of the deterioration of the visibility of the captured image of the camera so as to suit the environment of the place where the camera is installed. User convenience can be improved.
また、クライアントPC10は、カメラごとに生成されたカメラ設定情報を用いて、撮像映像MV1の全体領域からマスク処理の対象外領域(例えば図8に示す枠JGA1参照)を除くマスク処理の対象領域に対してマスク処理を行って得た編集映像をモニタDPに表示する。これにより、クライアントPC10は、例えばユーザが撮像映像中で注目している映像領域部分の視認性を確保した上で映像出力でき、更に、マスク処理の対象領域の映像中に現れる人物をマスク画像に置き換えて表示できるので、マスク処理の対象領域内の人物が誰であるかの特定を困難にでき、プライバシーの確保を図ることができる。 Further, the client PC 10 uses the camera setting information generated for each camera to set the mask processing target area excluding the non-mask processing target area (see, for example, the frame JGA1 shown in FIG. 8) from the entire area of the captured video MV1. The edited video obtained by performing the masking process is displayed on the monitor DP. As a result, the client PC 10 can output video after ensuring the visibility of the video area portion that the user is paying attention to in the captured video, for example, and the person appearing in the video of the mask processing target area is used as the mask image. Since the display can be replaced, it is difficult to specify who is in the mask processing target area, and privacy can be ensured.
また、クライアントPC10は、少なくともマスク処理の実行又は不実行をカメラごとに設定するためのカメラ設定画面WD1をモニタDPに表示し、ユーザ操作に応じて、カメラ設定画面WD1の中でいずれかのカメラに対応するマスク処理の実行が指定された場合に、カメラ設定画面WD1から、指定されたカメラに対応する領域設定画面WD2に切り替えてモニタDPに表示する。これにより、ユーザは、カメラ設定画面WD1においていずれかのカメラにより撮像された撮像映像に対してマスク処理(MOR処理)の実行又は不実行を簡易に設定できる。更に、ユーザは、カメラ設定画面WD1においてマスク処理(MOR処理)の実行を設定しかつ設定ボタンを押下することで領域設定画面WD2がモニタDPに表示されるので、マスク処理(MOR処理)の実行と対象外領域の設定とを連続的に行うことができる。 Further, the client PC 10 displays a camera setting screen WD1 for setting at least execution or non-execution of mask processing for each camera on the monitor DP, and any of the cameras in the camera setting screen WD1 according to a user operation. When the execution of the mask processing corresponding to is designated, the camera setting screen WD1 is switched to the region setting screen WD2 corresponding to the designated camera and displayed on the monitor DP. Thereby, the user can easily set execution or non-execution of the mask process (MOR process) on the captured image captured by any camera on the camera setting screen WD1. Furthermore, when the user sets execution of mask processing (MOR processing) on the camera setting screen WD1 and presses the setting button, the region setting screen WD2 is displayed on the monitor DP, so execution of mask processing (MOR processing) is performed. And the setting of the non-target region can be performed continuously.
また、クライアントPC10は、ユーザ操作により、領域設定画面WD2内の撮像映像MV1の表示領域の中で指定された四角形領域をマスク処理の対象外領域に設定する。これにより、ユーザは、領域設定画面WD2に表示される撮像映像MV1を閲覧しながら、マスク処理の対象外領域とすることで視認性を確保したい部分を四角形状で選択することができる。 Further, the client PC 10 sets a rectangular area designated in the display area of the captured video MV1 in the area setting screen WD2 as a non-maskable area by a user operation. As a result, the user can select a portion of which the visibility is to be ensured by making it a non-target area of the mask process while viewing the captured video MV1 displayed on the area setting screen WD2.
また、クライアントPC10は、ユーザ操作により、領域設定画面WD2内の撮像映像MV1の表示領域の中で指定された多角形領域(例えば五角形領域)をマスク処理の対象外領域に設定する。これにより、ユーザは、領域設定画面WD2に表示される撮像映像MV1を閲覧しながら、マスク処理の対象外領域とすることで視認性を確保したい部分を多角形状(例えば五角形領域)で選択することができる。 Further, the client PC 10 sets a polygonal area (for example, a pentagonal area) designated in the display area of the captured video MV1 in the area setting screen WD2 as a non-maskable area by a user operation. As a result, the user can select a portion whose visibility is to be ensured by making it a non-target area of the mask process while viewing the captured image MV1 displayed on the area setting screen WD2 in a polygonal shape (for example, a pentagonal area). Can do.
また、クライアントPC10は、少なくともマスク処理の実行又は不実行をカメラごとに設定するためのカメラ設定画面WD1をモニタDPに表示し、カメラ設定画面WD1に対するユーザ操作に応じて、マスク処理の中で撮像映像MV1の背景画像を生成するための初期学習の期間と、マスク処理の中で背景画像を更新するための通常学習の期間とをカメラごとに関連付けてストレージ15又はメモリ16に保存する。 In addition, the client PC 10 displays a camera setting screen WD1 for setting at least execution or non-execution of the mask processing for each camera on the monitor DP, and performs imaging in the mask processing in accordance with a user operation on the camera setting screen WD1. The initial learning period for generating the background image of the video MV1 and the normal learning period for updating the background image in the mask process are stored in the storage 15 or the memory 16 in association with each camera.
これにより、ユーザは、各種のカメラが設置された場所の環境に適合するように、ユーザの簡単な操作によって、クライアントPC10において行われるマスク処理(MOR処理)の背景画像の初期学習及び通常学習の期間をカメラごとに個別に設定することができ、ユーザの使い勝手を向上できる。従って、クライアントPC10は、カメラ(例えばPTZカメラCAM13)が設定された環境(例えば場所)に応じて、その周辺に存在する人物の行動特性(例えば人物の移動が多い場所、人物の移動が少ない場所)に適合するように背景画像の生成及び更新を行うことができ、環境に即した適切なマスク処理後の編集映像を生成、表示することができる。 As a result, the user can perform initial learning and normal learning of the background image of the mask processing (MOR processing) performed in the client PC 10 by a simple operation of the user so as to suit the environment of the place where the various cameras are installed. The period can be individually set for each camera, and user convenience can be improved. Therefore, the client PC 10 determines the behavioral characteristics of a person existing in the vicinity (for example, a place where the movement of the person is large, a place where the movement of the person is small, depending on the environment (for example, the place) where the camera (for example, the PTZ camera CAM 13) is set The background image can be generated and updated so as to conform to (2), and the edited video after the mask processing suitable for the environment can be generated and displayed.
(第2の実施形態の内容に至る経緯)
特許文献1によれば、監視エリアにおいて検知された人物の動画映像内の位置情報及び人物の属性(例えば性別、年齢)毎にマスク画像が生成されるため、そのマスク画像により、プライバシーを確保した上で店舗内の人物の行動が把握可能となる。
(Background to the contents of the second embodiment)
According to Patent Document 1, since a mask image is generated for each position information and person attribute (for example, gender, age) in a moving image of a person detected in a monitoring area, privacy is ensured by the mask image. The behavior of the person in the store can be grasped above.
しかしながら、特許文献1では、動画映像において検知された人物の画像領域をマスク画像に変更するのはカメラであり、カメラからの動画映像を受信する受信装置(例えばユーザが使用するクライアントPC)によりマスク処理が行われることは考慮されていない。 However, in Patent Document 1, it is a camera that changes the image area of a person detected in a moving image to a mask image, and the mask is set by a receiving device (for example, a client PC used by a user) that receives the moving image from the camera. It is not taken into account that processing is performed.
このため、クライアントPCが複数のカメラにより撮像されたそれぞれ異なる撮像映像を受信してモニタに分割表示している間、それぞれの撮像映像毎にマスク処理の実行又は不実行の有無の設定を個々に行うことができず、ユーザの使い勝手が良くなかった。例えば、カメラにてマスク処理が行われるように予め設定されている場合、そのカメラから配信された映像がクライアントPCのモニタに表示されている間では、カメラの撮像処理を一旦停止させ、カメラのマスク処理を不実行とする設定に変更しない限り、モニタでの表示途中でクライアントPCにより、カメラにおけるマスク処理を不実行とする設定に変更することはできなかった。 For this reason, while the client PC receives different captured images captured by a plurality of cameras and separately displays them on the monitor, the setting of whether or not to perform mask processing is individually set for each captured image. It was not possible to do this, and the user-friendliness was not good. For example, when the camera is set in advance to perform mask processing, while the video distributed from the camera is displayed on the monitor of the client PC, the camera imaging process is temporarily stopped and the camera Unless the mask processing is changed to the setting that does not execute, the client PC cannot be changed to the setting that disables the mask processing in the camera during the display on the monitor.
そこで、第2の実施形態では、複数種類の異なる撮像映像をモニタに分割して表示する際に、個々の撮像映像に対するマスク処理の実行又は不実行の設定を撮像映像毎に簡易に設定し、ユーザの使い勝手を向上するモニタリングシステム及び映像表示方法の例を説明する。 Therefore, in the second embodiment, when a plurality of different types of captured images are divided and displayed on a monitor, the execution or non-execution of mask processing for each captured image is simply set for each captured image, An example of a monitoring system and a video display method for improving user convenience will be described.
(第2の実施形態)
第2の実施形態のモニタリングシステムとして、第1の実施形態で説明した監視カメラシステム100を例示して説明する。第2の実施形態の監視カメラシステム100の内部構成は第1の実施形態の監視カメラシステム100と同一であるため、同一の内容の説明は簡略化又は省略し、異なる内容について説明する。
(Second Embodiment)
As a monitoring system according to the second embodiment, the surveillance camera system 100 described in the first embodiment will be described as an example. Since the internal configuration of the surveillance camera system 100 of the second embodiment is the same as that of the surveillance camera system 100 of the first embodiment, description of the same contents is simplified or omitted, and different contents are described.
図15(A)及び図15(B)は、複数のカメラの撮像映像を3分割した表示例を示す図である。図15(C)は、複数のカメラの撮像映像を4分割した表示例を示す図である。 FIG. 15A and FIG. 15B are diagrams illustrating a display example in which captured images of a plurality of cameras are divided into three. FIG. 15C is a diagram illustrating a display example in which captured images of a plurality of cameras are divided into four.
クライアントPC10は、複数のカメラ(例えば全方位カメラCAM11、PTZカメラCAM12,CAM13)から配信(送信)された個々の異なる撮像映像を受信したとする。それぞれのカメラにおいてマスク処理(MOR処理)が実行されることがカメラ設定画面WD1(図6参照)において設定されている場合、プロセッサ11は、マスク処理部114において、図11及び図12に示す処理に従ってそれぞれの撮像映像中の人物をマスク画像に変更した(置き換えた)マスク処理後の編集映像MV2,MV3,MV4を生成する。プロセッサ11は、映像出力制御部115において、マスク処理部114により生成された編集映像MV2,MV3,MV4を3分割して映した映像表示画面WD5a又は映像表示画面5bをモニタDPに表示することができる(図15(A)又は図15(B)参照)。 Assume that the client PC 10 receives different captured images distributed (transmitted) from a plurality of cameras (for example, the omnidirectional camera CAM11, the PTZ cameras CAM12, and CAM13). When it is set on the camera setting screen WD1 (see FIG. 6) that the mask processing (MOR processing) is performed in each camera, the processor 11 performs processing shown in FIGS. 11 and 12 in the mask processing unit 114. Then, the edited video MV2, MV3, and MV4 after mask processing in which the person in each captured video is changed (replaced) to a mask image is generated. In the video output control unit 115, the processor 11 can display the video display screen WD5a or the video display screen 5b in which the edited videos MV2, MV3, and MV4 generated by the mask processing unit 114 are divided into three and displayed on the monitor DP. Yes (see FIG. 15A or FIG. 15B).
図15(A)の映像表示画面WD5aでは、編集映像の表示領域全体3DV1のうち、編集映像MV2の表示領域は、他の編集映像MV3,MV4の表示領域に比べて大きくなっている。図15(B)の映像表示画面WD5bでは、編集映像の表示領域全体3DV2のうち、編集映像MV4の表示領域は、他の編集映像MV2,MV3の表示領域に比べて大きくなっている。プロセッサ11は、図15(A)、図15(B)又は図15(C)に示す表示切替ボックスCGB1に対するユーザ操作に応じて、図15(A)に示す3分割の表示形態を、指定された表示形態(例えば図15(B)に示す3分割の表示形態、又は図15(C)に示す4分割の表示形態)に切り替えできる。但し、図15(A)及び図15(B)の図面の複雑化を避けるために、図15(A)及び図15(B)において表示切替ボックスCGB1の図示は省略されている。また、プロセッサ11は、図15(A)や図15(B)に示す3分割の表示形態において、どの編集映像の表示領域を最も大きくできるかをユーザ操作により設定できる。 In the video display screen WD5a of FIG. 15A, the display area of the edited video MV2 out of the entire display area 3DV1 of the edited video is larger than the display areas of the other edited videos MV3 and MV4. In the video display screen WD5b of FIG. 15B, the display area of the edited video MV4 out of the entire display area 3DV2 of the edited video is larger than the display areas of the other edited videos MV2 and MV3. The processor 11 is designated with the three-divided display form shown in FIG. 15A in response to a user operation on the display switching box CGB1 shown in FIG. 15A, FIG. 15B, or FIG. The display mode (for example, the 3-part display mode shown in FIG. 15B or the 4-part display mode shown in FIG. 15C) can be switched. However, in order to avoid complication of the drawings of FIGS. 15A and 15B, the display switching box CGB1 is not shown in FIGS. 15A and 15B. In addition, the processor 11 can set by user operation which edit video display area can be maximized in the three-divided display mode shown in FIGS. 15A and 15B.
クライアントPC10は、複数のカメラ(例えば全方位カメラCAM11、PTZカメラCAM12,CAM13、固定カメラCAM14)から配信(送信)された個々の異なる撮像映像を受信したとする。それぞれのカメラにおいてマスク処理(MOR処理)が実行されることがカメラ設定画面WD1(図6参照)において設定されている場合、プロセッサ11は、マスク処理部114において、図11及び図12に示す処理に従ってそれぞれの撮像映像中の人物をマスク画像に変更した(置き換えた)マスク処理後の編集映像MV2,MV3,MV4,MV5を生成する。プロセッサ11は、映像出力制御部115において、マスク処理部114により生成された編集映像MV2,MV3,MV4,MV5を4分割して映した映像表示画面WD6をモニタDPに表示することができる(図15(C)参照)。 Assume that the client PC 10 receives different captured images distributed (transmitted) from a plurality of cameras (for example, the omnidirectional camera CAM11, the PTZ cameras CAM12, CAM13, and the fixed camera CAM14). When it is set on the camera setting screen WD1 (see FIG. 6) that the mask processing (MOR processing) is performed in each camera, the processor 11 performs processing shown in FIGS. 11 and 12 in the mask processing unit 114. Then, the edited video MV2, MV3, MV4, and MV5 after mask processing in which the person in each captured video is changed (replaced) to a mask image are generated. In the video output control unit 115, the processor 11 can display on the monitor DP a video display screen WD6 in which the edited videos MV2, MV3, MV4, and MV5 generated by the mask processing unit 114 are divided into four (FIG. 5). 15 (C)).
図15(C)の映像表示画面WD6では、編集映像の表示領域全体4DV1のうち、4つの編集映像MV2,MV3,MV4,MV5の表示領域が均等である。 In the video display screen WD6 in FIG. 15C, the display areas of the four edited videos MV2, MV3, MV4, and MV5 are equal in the entire edited video display area 4DV1.
なお、図15(A)、図15(B)、図15(C)では、映像表示画面WD5a,WD5b,WD6に表示される映像は全てプロセッサ11によりマスク処理が施された後の編集映像が示されている。但し、少なくとも一つの映像は、マスク処理が施されていない撮像映像であっても構わない。これは、カメラ設定画面WD1において、カメラごとにマスク処理(MOR処理)の実行又は不実行の設定情報に起因する。言い換えると、クライアントPC10は、複数の映像を分割表示する際に、カメラ設定画面WD1でユーザにより設定されたカメラ設定情報に従って、それぞれのカメラに対応するマスク処理を実行した編集映像やマスク処理を実行しないで受信したままの撮像映像を用いて分割表示すればよい。 In FIG. 15A, FIG. 15B, and FIG. 15C, all the images displayed on the image display screens WD5a, WD5b, and WD6 are the edited images after the processor 11 performs the masking process. It is shown. However, at least one video may be a captured video that has not been subjected to mask processing. This is caused by setting information on whether or not to perform mask processing (MOR processing) for each camera on the camera setting screen WD1. In other words, when the client PC 10 displays a plurality of videos in a divided manner, the client PC 10 executes an edited video or a mask process in which a mask process corresponding to each camera is executed according to the camera setting information set by the user on the camera setting screen WD1. It is only necessary to divide and display the captured video as it is received.
例えば4分割の表示形態の際、ユーザの会社の入り口付近に設置されたカメラから配信された1つの撮像映像は、クライアントPC10によりマスク処理がなされずにそのまま映像表示画面(例えば映像表示画面WD6)に表示される。更に、会社の建物内に設置された他の複数(3つ)のカメラから配信された3つの撮像映像は、それぞれマスク処理がなされ、マスク処理により得られた複数の編集映像が同じ映像表示画面の残りの表示領域に表示されてもよい。これにより、ユーザ(例えば監視者)は、それぞれのカメラの設置場所の事情に合わせて、それぞれの場所に現れた人物の特定の要否を適宜決定して設定できる。例えば、ユーザは、顔を把握したい場所の撮像映像中の人物の顔を把握できるし、一方、顔を把握する必要がない場所又は顔を把握してはいけない場所では人物の顔がマスク画像になっているのでその人物のプライバシー保護を遵守できる。 For example, in the case of a four-divided display mode, one captured image distributed from a camera installed near the entrance of the user's company is not subjected to mask processing by the client PC 10 and is directly displayed as a video display screen (for example, a video display screen WD6). Is displayed. Furthermore, the three captured images distributed from other (three) cameras installed in the company building are each subjected to mask processing, and the plurality of edited videos obtained by the mask processing are the same image display screen. May be displayed in the remaining display area. Accordingly, a user (for example, a supervisor) can appropriately determine and set the specific necessity of the person appearing at each location according to the circumstances of the installation location of each camera. For example, the user can grasp the face of the person in the captured image of the place where the user wants to grasp the face. On the other hand, the person's face becomes a mask image in a place where the face does not need to be grasped or where the face should not be grasped. Therefore, the privacy protection of the person can be observed.
次に、本実施形態のクライアントPC10の分割表示の第1動作手順について、図16を参照して説明する。図16は、第2の実施形態における、複数のカメラの撮像映像の表示の際にクライアントPC10において行われる動作手順の一例を詳細に説明するフローチャートである。図16に示す処理は、クライアントPC10に撮像映像を配信するカメラごとに、クライアントPC10において行われる。 Next, a first operation procedure of split display of the client PC 10 of this embodiment will be described with reference to FIG. FIG. 16 is a flowchart illustrating in detail an example of an operation procedure performed in the client PC 10 when displaying captured images of a plurality of cameras according to the second embodiment. The process illustrated in FIG. 16 is performed in the client PC 10 for each camera that distributes the captured video to the client PC 10.
図16において、プロセッサ11のマスク処理設定部113は、クライアントPC10が受信した、分割表示の対象となるカメラの撮像映像を取得しているかどうかを判断する(S31)。マスク処理設定部113は、分割表示の対象となるカメラの撮像映像を取得していないと判断した場合には(S31、NO)、分割表示の対象となるカメラの撮像映像を取得するまで待機する(S32)。この場合には、映像出力制御部115は、分割表示の対象となるカメラからの撮像映像を取得していないので、モニタDPには何も表示しない。つまり、モニタDPの映像表示画面内の表示領域はブランクとなる。又は、クライアントPC10が既に受信している撮像映像があれば、映像出力制御部115は、その撮像映像をモニタDPの映像表示画面内の表示領域に表示してもよい。 In FIG. 16, the mask processing setting unit 113 of the processor 11 determines whether or not the client PC 10 has acquired the captured video of the camera to be divided and displayed (S31). If the mask processing setting unit 113 determines that the captured video of the camera that is the target of split display has not been acquired (NO in S31), the mask processing setting unit 113 waits until the captured video of the camera that is the target of split display is acquired. (S32). In this case, the video output control unit 115 does not display the captured video from the camera that is the target of the split display, and therefore displays nothing on the monitor DP. That is, the display area in the video display screen of the monitor DP is blank. Alternatively, if there is a captured video that the client PC 10 has already received, the video output control unit 115 may display the captured video in a display area in the video display screen of the monitor DP.
マスク処理設定部113は、分割表示の対象となるカメラの撮像映像を取得したと判断した場合には(S31、YES)、撮像映像に含まれるカメラの識別情報を基に、ストレージ15又はメモリ16に記憶しているカメラ設定情報の該当するカメラのレコードを参照して読み出す(S33)。マスク処理設定部113は、読み出したレコードにおいて撮像映像に対してマスク処理(MOR処理)を実行する旨の設定がなされているかどうかを判断する(S34)。 When the mask processing setting unit 113 determines that the captured video of the camera to be divided is acquired (S31, YES), the storage 15 or the memory 16 is based on the camera identification information included in the captured video. Is read with reference to the record of the corresponding camera in the camera setting information stored in (S33). The mask process setting unit 113 determines whether or not the setting to execute the mask process (MOR process) is performed on the captured video in the read record (S34).
マスク処理設定部113は、読み出したレコードにおいてマスク処理(MOR処理)を実行する旨の設定がなされていると判断した場合(S34、YES)、その旨をマスク処理部114に通知する。マスク処理部114は、マスク処理設定部113からの通知に応じて、該当するカメラからの撮像映像に対して図11及び図12に示したマスク処理(MOR処理)を実行し、マスク処理後の編集映像を生成する(S35)。映像出力制御部115は、ステップS35において生成された編集映像をモニタDPの映像表示画面内の該当表示領域(例えば図15(A)の編集映像MV2の表示領域)に表示する(S35)。 When it is determined that the mask record (MOR process) is set to be executed in the read record (S34, YES), the mask process setting unit 113 notifies the mask process unit 114 to that effect. In response to the notification from the mask processing setting unit 113, the mask processing unit 114 performs the mask processing (MOR processing) shown in FIGS. 11 and 12 on the captured image from the corresponding camera, and performs the mask processing after the mask processing. An edited video is generated (S35). The video output control unit 115 displays the edited video generated in step S35 in a corresponding display area (for example, the display area of the edited video MV2 in FIG. 15A) in the video display screen of the monitor DP (S35).
一方、マスク処理設定部113は、読み出したレコードにおいてマスク処理(MOR処理)を実行する旨の設定がなされていないと判断した場合(S34、NO)、オリジナルの撮像映像(つまり、マスク処理されていない撮像により得られた撮像映像。以下同様。)を表示する旨を映像出力制御部115に通知する(S36)。映像出力制御部115は、マスク処理設定部113からの通知に応じて、クライアントPC10がカメラから受信したオリジナルの撮像映像をモニタDPの映像表示画面内の該当表示領域(例えば図15(A)の編集映像MV2の表示領域)に表示する(S36)。 On the other hand, when the mask processing setting unit 113 determines that the mask record (MOR process) is not set in the read record (S34, NO), the original captured image (that is, the mask process is performed). The image output control unit 115 is notified that an imaged image obtained by non-imaging imaging (the same applies hereinafter) is displayed (S36). In response to the notification from the mask processing setting unit 113, the video output control unit 115 converts the original captured video received from the camera by the client PC 10 from the corresponding display area (for example, FIG. 15A) in the video display screen of the monitor DP. It is displayed on the display area of the edited video MV2 (S36).
ステップS35又はステップS36の後、クライアントPC10の分割表示が終了する場合には(S37、YES)、図16に示すプロセッサ11の処理は終了する。一方、ステップS35,S36の後、クライアントPC10の分割表示が終了しない場合には(S37、NO)、プロセッサ11の処理はステップS31に戻る。 If the divided display of the client PC 10 is finished after step S35 or step S36 (S37, YES), the processing of the processor 11 shown in FIG. 16 is finished. On the other hand, if the divided display of the client PC 10 does not end after steps S35 and S36 (S37, NO), the processing of the processor 11 returns to step S31.
図17は、カメラの撮像映像とその同じカメラの過去の複数の異なる撮像映像とを4分割した表示例を示す図である。クライアントPC10は、一つのカメラ(例えば固定カメラCAM14)から配信(送信)された現在の撮像映像(ライブ映像)を受信し、更に、一つのレコーダ(例えばレコーダREC1)から配信された複数の異なる録画映像を受信したとする。複数の異なる録画映像は、現在の撮像映像(ライブ映像)を配信しているカメラ(例えば固定カメラCAM14)により過去に撮像された録画映像である。このカメラにおいてマスク処理(MOR処理)が実行されることがカメラ設定画面WD1(図6参照)において設定されている場合、プロセッサ11は、マスク処理部114において、図11及び図12に示す処理に従ってそれぞれの撮像映像及び録画映像中の人物をマスク画像に変更した(置き換えた)マスク処理後の編集映像MV6,編集録画映像MV7,MV8,MV9を生成する。プロセッサ11は、映像出力制御部115において、マスク処理部114により生成された編集映像MV6,編集録画映像MV7,MV8,MV9を4分割して映した映像表示画面WD7をモニタDPに表示することができる(図17参照)。 FIG. 17 is a diagram illustrating a display example in which a captured image of a camera and a plurality of different captured images of the same camera are divided into four. The client PC 10 receives the current captured video (live video) distributed (transmitted) from one camera (for example, the fixed camera CAM 14), and further, a plurality of different recordings distributed from one recorder (for example, the recorder REC1). Assume that video is received. The plurality of different recorded videos are recorded videos captured in the past by a camera (for example, the fixed camera CAM 14) that distributes the current captured video (live video). When it is set on the camera setting screen WD1 (see FIG. 6) that the mask process (MOR process) is performed in this camera, the processor 11 causes the mask processing unit 114 to follow the processes shown in FIGS. Edited video MV6, edited video MV7, MV8, and MV9 after mask processing in which a person in each captured video and recorded video is changed (replaced) to a mask image are generated. In the video output control unit 115, the processor 11 can display on the monitor DP a video display screen WD7 that is obtained by dividing the edited video MV6, edited video MV7, MV8, and MV9 generated by the mask processing unit 114 into four. Yes (see FIG. 17).
図17の映像表示画面WD7では、編集映像や編集録画映像の表示領域全体4DV2のうち、4つの映像(具体的には、編集映像MV6,編集録画映像MV7,MV8,MV9)の表示領域が均等である。編集録画映像MV7,MV8,MV9は、例えば編集録画映像MV7、編集録画映像MV8、編集録画映像MV9の順に撮像日時が古い又は新しいものである。これにより、クライアントPC10は、同一のカメラにより撮像された現在の撮像映像と過去に撮像された録画映像とがそれぞれマスク処理(MOR処理)された編集映像や編集録画映像をモニタDPに分割表示できるので、ユーザの人物の追跡や行動把握等を効果的に支援することができる。 In the video display screen WD7 of FIG. 17, the display area of four videos (specifically, the edited video MV6, the edited video MV7, MV8, and MV9) out of the entire display area 4DV2 of the edited video and the edited video. It is. The edited recording videos MV7, MV8, and MV9 are, for example, those having the oldest or newest shooting date in the order of the edited recording video MV7, the edited recording video MV8, and the edited recording video MV9. As a result, the client PC 10 can divide and display on the monitor DP the edited video and the edited recorded video obtained by masking (MOR processing) the current captured video captured by the same camera and the recorded video captured in the past. Therefore, it is possible to effectively support the tracking of the user's person and the grasping of the action.
次に、本実施形態のクライアントPC10の分割表示の第2動作手順について、図18を参照して説明する。図18は、第2の実施形態における、カメラの撮像映像及びレコーダから録画映像の表示の際にクライアントPC10において行われる動作手順の一例を詳細に説明するフローチャートである。図18に示す処理は、クライアントPC10に現在の撮像映像(ライブ映像)を配信するカメラ、又はそのカメラにより撮像された過去の録画映像を配信するレコーダ毎に、クライアントPC10において行われる。 Next, a second operation procedure of split display of the client PC 10 of this embodiment will be described with reference to FIG. FIG. 18 is a flowchart illustrating in detail an example of an operation procedure performed in the client PC 10 when displaying a captured image of a camera and a recorded image from a recorder in the second embodiment. The process illustrated in FIG. 18 is performed in the client PC 10 for each camera that distributes the current captured video (live video) to the client PC 10 or for each recorder that distributes past recorded video captured by the camera.
また、図18に示す処理と図16に示す処理とが同一である場合には、図16に示す処理のステップ番号と同一のステップ番号を付与して説明を簡略化又は省略し、異なる内容について説明する。 Further, when the process shown in FIG. 18 and the process shown in FIG. 16 are the same, the same step number as the step number of the process shown in FIG. explain.
図18において、プロセッサ11のマスク処理設定部113は、クライアントPC10が受信した、分割表示の対象となるカメラからの撮像映像又はレコーダからの録画映像を取得しているかどうかを判断する(S31A)。マスク処理設定部113は、カメラからの撮像映像又はレコーダからの録画映像を取得していないと判断した場合には(S31A、NO)、カメラからの撮像映像又はレコーダからの録画映像を取得するまで待機する(S32)。なお、クライアントPC10は、ユーザの撮像日時の指定により、レコーダに対して該当する録画映像を要求すると、レコーダから配信された該当する録画映像を受信して取得することができ、各実施形態でも同様である。 In FIG. 18, the mask processing setting unit 113 of the processor 11 determines whether the client PC 10 has acquired the captured video from the camera that is the target of split display or the recorded video from the recorder (S31A). When it is determined that the captured video from the camera or the recorded video from the recorder is not acquired (S31A, NO), the mask processing setting unit 113 acquires the captured video from the camera or the recorded video from the recorder. Wait (S32). The client PC 10 can receive and acquire the corresponding recorded video distributed from the recorder when requesting the corresponding recorded video from the recorder by the user's designation of the imaging date and time. The same applies to each embodiment. It is.
マスク処理設定部113は、分割表示の対象となるカメラからの撮像映像又はレコーダからの録画映像を取得したと判断した場合には(S31A、YES)、撮像映像や録画映像に含まれるカメラの識別情報を基に、ストレージ15又はメモリ16に記憶しているカメラ設定情報の該当するカメラのレコードを参照して読み出す(S33A)。マスク処理設定部113は、読み出したレコードにおいて撮像映像や録画映像に対してマスク処理(MOR処理)を実行する旨の設定がなされているかどうかを判断する(S34A)。 When the mask processing setting unit 113 determines that the captured video from the camera that is the target of split display or the recorded video from the recorder is acquired (S31A, YES), identification of the camera included in the captured video or the recorded video Based on the information, the camera setting information stored in the storage 15 or the memory 16 is read with reference to the corresponding camera record (S33A). The mask process setting unit 113 determines whether or not the setting to execute the mask process (MOR process) is performed on the captured video or the recorded video in the read record (S34A).
マスク処理設定部113は、読み出したレコードにおいてマスク処理(MOR処理)を実行する旨の設定がなされていると判断した場合(S34A、YES)、その旨をマスク処理部114に通知する。マスク処理部114は、マスク処理設定部113からの通知に応じて、該当するカメラからの撮像映像又はレコーダからの録画映像に対して図11及び図12に示したマスク処理(MOR処理)を実行し、マスク処理後の編集映像又は編集録画映像を生成する(S35A)。映像出力制御部115は、ステップS35において生成された編集映像又は編集録画映像をモニタDPの映像表示画面内の該当表示領域(例えば図17の編集映像MV6又は編集録画映像MV7の表示領域)に表示する(S35A)。 When it is determined that the mask record (MOR process) is set to be executed in the read record (S34A, YES), the mask process setting unit 113 notifies the mask process unit 114 to that effect. In response to the notification from the mask processing setting unit 113, the mask processing unit 114 performs the mask processing (MOR processing) illustrated in FIGS. 11 and 12 on the captured video from the corresponding camera or the recorded video from the recorder. Then, the edited video or edited video recorded after the mask process is generated (S35A). The video output control unit 115 displays the edited video or the edited recorded video generated in step S35 in a corresponding display area in the video display screen of the monitor DP (for example, the display area of the edited video MV6 or the edited recorded video MV7 in FIG. 17). (S35A).
一方、マスク処理設定部113は、読み出したレコードにおいてマスク処理(MOR処理)を実行する旨の設定がなされていないと判断した場合(S34A、NO)、オリジナルの撮像映像又は録画映像を表示する旨を映像出力制御部115に通知する(S36A)。映像出力制御部115は、マスク処理設定部113からの通知に応じて、クライアントPC10がカメラから受信したオリジナルの撮像映像又は録画映像をモニタDPの映像表示画面内の該当表示領域(例えば図17の編集映像MV6又は編集録画映像MV7の表示領域)に表示する(S36A)。 On the other hand, when it is determined that the mask record (MOR process) is not set to be executed in the read record (S34A, NO), the mask process setting unit 113 displays the original captured video or recorded video. Is notified to the video output control unit 115 (S36A). In response to the notification from the mask processing setting unit 113, the video output control unit 115 displays the original captured video or recorded video received by the client PC 10 from the camera in a corresponding display area (for example, FIG. 17) in the video display screen of the monitor DP. It is displayed in the display area of the edited video MV6 or edited video MV7 (S36A).
以上により、第2の実施形態の監視カメラシステム100は、撮像エリアを撮像する複数のカメラ(例えば全方位カメラCAM11,…)と、個々のカメラにより撮像された撮像エリアの撮像映像に現れる移動体(例えば人物)の少なくとも一部をマスク画像に変更するためのマスク処理の実行又は不実行の設定情報をカメラごとに保持するクライアントPC10と、を備える。また、クライアントPC10は、マスク処理の実行が設定された複数のカメラにより撮像された個々の撮像映像をマスク処理して得た個々の編集映像、又はマスク処理の実行が設定された1つのカメラにより撮像された個々の撮像映像をマスク処理して得た編集映像とマスク処理の不実行が設定された少なくとも1つのカメラにより撮像された個々の撮像映像と、をモニタDPに分割表示する。 As described above, the surveillance camera system 100 according to the second embodiment includes a plurality of cameras (for example, the omnidirectional cameras CAM11,...) That capture an imaging area and a moving body that appears in the captured images of the imaging areas captured by the individual cameras. A client PC 10 that holds setting information for execution or non-execution of mask processing for changing at least a part of (for example, a person) into a mask image. In addition, the client PC 10 uses an individual edited video obtained by performing mask processing on individual captured images captured by a plurality of cameras set to execute mask processing, or a single camera set to execute mask processing. The edited video obtained by masking the individual captured video and the individual captured video captured by at least one camera set not to execute the mask processing are divided and displayed on the monitor DP.
第2の実施形態のクライアントPC10も、第1の実施形態と同様に、撮像映像に現れる移動中の人物の少なくとも一部又は全部をマスク画像に置き換えるマスク処理を行うことができる。これにより、クライアントPC10は、複数の異なる撮像映像をモニタDPに分割表示する際に、クライアントPC10が受信した個々の撮像映像の配信元(送信元)としてのカメラごとに、マスク処理の実行又は不実行の設定を簡易に設定できるので、ユーザの使い勝手を向上することができる。従って、クライアントPC10は、カメラの設置場所の事情に適合するように、分割表示の対象となる撮像映像毎に、マスク処理を行ったり行わなかったりする設定を可変にできるので、ユーザの適切な監視業務や高精度なマーケティング分析に資することができる。 Similarly to the first embodiment, the client PC 10 according to the second embodiment can also perform mask processing that replaces at least a part or all of the moving person appearing in the captured image with a mask image. As a result, when the client PC 10 divides and displays a plurality of different captured images on the monitor DP, the masking process is executed or not performed for each camera as a distribution source (transmission source) of each captured image received by the client PC 10. Since execution settings can be easily set, user convenience can be improved. Accordingly, the client PC 10 can change the setting for performing mask processing for each captured image to be divided and displayed so as to adapt to the circumstances of the camera installation location. It can contribute to business and high-precision marketing analysis.
また、第2の実施形態の監視カメラシステム100は、個々のカメラにより撮像された撮像エリアの撮像映像を録画映像として撮像日時と関連付けて記憶するレコーダ(例えばREC1)を更に備える。クライアントPC10は、マスク処理の実行が設定されたカメラにより撮像された撮像映像をマスク処理して得た編集映像とマスク処理の実行が設定されたカメラにより過去の異なる撮像日時に撮像されてレコーダに記憶された複数の録画映像をマスク処理して得た個々の編集録画映像と、をモニタDPに分割表示する。 The surveillance camera system 100 according to the second embodiment further includes a recorder (for example, REC1) that stores a captured image of an imaging area captured by each camera in association with an imaging date and time as a recorded video. The client PC 10 captures an edited image obtained by masking the captured image captured by the camera set to execute the mask process and an image captured at different past imaging dates and times by the camera set to execute the mask process. Individual edited and recorded videos obtained by masking a plurality of recorded videos are divided and displayed on the monitor DP.
これにより、クライアントPC10は、同一のカメラにより撮像された現在の撮像映像と過去に撮像された録画映像とがそれぞれマスク処理(MOR処理)された編集映像や編集録画映像をモニタDPに分割表示できるので、例えば監視業務やマーケティング分析においてカメラの設置場所付近に現れた人物の追跡や行動把握等を効果的に支援することができる。 As a result, the client PC 10 can divide and display on the monitor DP the edited video and the edited recorded video obtained by masking (MOR processing) the current captured video captured by the same camera and the recorded video captured in the past. Therefore, it is possible to effectively support, for example, tracking of a person appearing in the vicinity of the installation location of the camera or grasping an action in monitoring work or marketing analysis.
(第3の実施形態の内容に至る経緯)
特許文献1によれば、監視エリアにおいて検知された人物の動画映像内の位置情報及び人物の属性(例えば性別、年齢)毎にマスク画像が生成されるため、そのマスク画像により、プライバシーを確保した上で店舗内の人物の行動が把握可能となる。
(Background to the contents of the third embodiment)
According to Patent Document 1, since a mask image is generated for each position information and person attribute (for example, gender, age) in a moving image of a person detected in a monitoring area, privacy is ensured by the mask image. The behavior of the person in the store can be grasped above.
しかしながら、特許文献1では、動画映像において検知された人物の画像領域をマスク画像に変更するのはカメラであり、カメラからの動画映像を受信する受信装置(例えばユーザが使用するクライアントPC)によりマスク処理が行われることは考慮されていない。 However, in Patent Document 1, it is a camera that changes the image area of a person detected in a moving image to a mask image, and the mask is set by a receiving device (for example, a client PC used by a user) that receives the moving image from the camera. It is not taken into account that processing is performed.
クライアントPCにおいてマスク処理ができない場合、マスク処理を実行する機能(以下、「マスク機能」という)が無いカメラにより撮像された撮像映像についてマスク処理を行うことはできなかった。マスク機能が無い既設のカメラにマスク機能を追加することは困難を伴う。このため、監視効率の向上やマーケティング分析精度の向上を図ることが困難であった。 When the mask processing cannot be performed in the client PC, the mask processing cannot be performed on a captured image captured by a camera without a function for executing the mask processing (hereinafter referred to as “mask function”). It is difficult to add a mask function to an existing camera without a mask function. For this reason, it was difficult to improve monitoring efficiency and marketing analysis accuracy.
そこで、第3の実施形態では、マスク機能を有さないカメラに対してマスク機能を別途追加すること無く、マスク機能を有さないカメラにより撮像された撮像映像に対してマスク処理を適切に施し、監視効率やマーケティング分析精度の向上を図るモニタリングシステム及び映像表示方法の例を説明する。 Therefore, in the third embodiment, mask processing is appropriately performed on a captured image captured by a camera that does not have a mask function without adding a mask function separately to a camera that does not have a mask function. An example of a monitoring system and a video display method for improving monitoring efficiency and marketing analysis accuracy will be described.
(第3の実施形態)
第3の実施形態のモニタリングシステムとして、第1の実施形態で説明した監視カメラシステム100を例示して説明する。第3の実施形態の監視カメラシステム100の内部構成は第1の実施形態の監視カメラシステム100と同一であるため、同一の内容の説明は簡略化又は省略し、異なる内容について説明する。
(Third embodiment)
The monitoring camera system 100 described in the first embodiment will be described as an example of a monitoring system according to the third embodiment. Since the internal configuration of the surveillance camera system 100 of the third embodiment is the same as that of the surveillance camera system 100 of the first embodiment, description of the same contents is simplified or omitted, and different contents are described.
第3,第4の各実施形態では、図1に示す監視カメラシステム100において、少なくとも固定カメラCAM14は、上述したマスク機能を有する。つまり、固定カメラCAM14は、自ら撮像した撮像映像に対し、図11及び図12に示すマスク処理(MOR処理)を実行することができる。言い換えると、第3,第4の各実施形態では、固定カメラCAM14のプロセッサC11には、図3に示すクライアントPC10のプロセッサ11内の画像入力部111、背景画像処理部112、マスク処理設定部113及びマスク処理部114と同じ各部が含まれるように構成されているとする。 In the third and fourth embodiments, in the surveillance camera system 100 shown in FIG. 1, at least the fixed camera CAM 14 has the mask function described above. That is, the fixed camera CAM 14 can execute the mask process (MOR process) shown in FIGS. 11 and 12 on the captured image captured by itself. In other words, in each of the third and fourth embodiments, the processor C11 of the fixed camera CAM 14 includes the image input unit 111, the background image processing unit 112, and the mask processing setting unit 113 in the processor 11 of the client PC 10 illustrated in FIG. In addition, it is assumed that the same components as the mask processing unit 114 are included.
なお、固定カメラCAM14は、クライアントPC10におけるマスク処理と同等のマスク処理(つまり、第1の実施形態で説明した、ユーザ操作に基づくマスク処理の対象外領域を除いた領域において行うマスク処理)を行うことができなくても、例えば特許文献1に記載したマスク処理を行うことができても構わない。また、第3,第4の各実施形態ではマスクカメラは1台として説明しているが、1台だけに限定されず、複数のカメラがマスクカメラとして動作するものであっても構わない。 Note that the fixed camera CAM 14 performs a mask process equivalent to the mask process in the client PC 10 (that is, the mask process performed in the region excluding the non-target region for the mask process based on the user operation described in the first embodiment). Even if it cannot be performed, for example, the mask processing described in Patent Document 1 may be performed. Further, in each of the third and fourth embodiments, the mask camera is described as one unit. However, the present invention is not limited to only one unit, and a plurality of cameras may operate as a mask camera.
また、第3,第4の各実施形態において、固定カメラCAM14のように、マスク機能を有するカメラを便宜的に「マスクカメラ」といい、固定カメラCAM14を除く他のカメラのように、マスク機能を有さないカメラを便宜的に「通常カメラ」という。 In each of the third and fourth embodiments, a camera having a mask function like the fixed camera CAM14 is referred to as a “mask camera” for convenience, and a mask function like other cameras excluding the fixed camera CAM14. For convenience, a camera that does not have a camera is called a “normal camera”.
次に、本実施形態のクライアントPC10のマスク処理の設定及び撮像映像の表示に関する動作手順について、図19〜図21を参照して説明する。図19は、第3の実施形態における、マスクカメラ及び通常カメラに対するクライアントPC10のマスク処理(MOR処理)の設定及び撮像映像の表示の動作手順の一例を詳細に説明するシーケンス図である。図20は、第3,第4の各実施形態におけるカメラ設定画面の一例を示す図である。図21は、クライアントPC10のモニタDPに表示される、撮像映像がマスク処理された編集映像の4分割表示例を示す図である。 Next, an operation procedure related to setting of mask processing and display of captured video of the client PC 10 according to the present embodiment will be described with reference to FIGS. FIG. 19 is a sequence diagram illustrating in detail an example of an operation procedure for setting a mask process (MOR process) of the client PC 10 for the mask camera and the normal camera and displaying a captured image in the third embodiment. FIG. 20 is a diagram illustrating an example of a camera setting screen in the third and fourth embodiments. FIG. 21 is a diagram illustrating an example of four-division display of an edited video that is displayed on the monitor DP of the client PC 10 and in which the captured video is masked.
図19において、ユーザ操作により、クライアントPC10の運用が開始される操作があると(S41)、クライアントPC10は、例えばカメラ設定画面WD1A(図20参照)に対するユーザ操作によりマスクカメラにおけるマスク処理の実行(ON)又は不実行(OFF)が指定された場合に、マスクカメラにおけるマスク処理の実行又は不実行が指定されたカメラ設定情報とカメラ設定情報を設定する旨の指示とをマスクカメラに送信する(S42)。 In FIG. 19, when there is an operation for starting operation of the client PC 10 by a user operation (S41), the client PC 10 executes mask processing in the mask camera by a user operation on the camera setting screen WD1A (see FIG. 20), for example ( When ON or non-execution (OFF) is designated, the camera setting information in which the mask process is designated to be executed or non-execution in the mask camera and an instruction to set the camera setting information are transmitted to the mask camera ( S42).
ここで、図20に示すカメラ設定画面WD1Aについて説明する。図6に示すカメラ設定画面WD1と重複する項目又は同様な項目の説明は簡略化又は省略し、異なる内容について説明する。 Here, the camera setting screen WD1A shown in FIG. 20 will be described. Descriptions of items overlapping or similar to the camera setting screen WD1 shown in FIG. 6 are simplified or omitted, and different contents will be described.
図20では、カメラ設定画面WD1Aの一部が抜粋して示されている。マスク処理設定部113は、例えばユーザ操作により、カメラ設定画面WD1AをモニタDPに表示する。このカメラ設定画面WD1Aでは、ユーザの操作部13を用いた操作により、例えば最大64台のカメラ(つまり、全方位カメラ、PTZカメラ、固定カメラにより構成)の個々のカメラに対し、少なくともIPアドレス、マスク処理(MOR処理)、マスク処理(MOR処理)の設定、初期学習期間、通常学習期間が関連付けられて設定可能となる。また、カメラ設定画面WD1Aに設けられた4つのタブ(カメラ1−16,カメラ17−32,カメラ33−48,カメラ49−64)を切り替えることで、カメラ16台単位で、該当するカメラについて、少なくともIPアドレス、マスク処理(MOR処理)、マスク処理(MOR処理)の設定、初期学習期間、通常学習期間の情報を設定可能である。 In FIG. 20, a part of the camera setting screen WD1A is extracted and shown. The mask processing setting unit 113 displays the camera setting screen WD1A on the monitor DP, for example, by a user operation. In this camera setting screen WD1A, at least an IP address, for each individual camera of, for example, a maximum of 64 cameras (that is, an omnidirectional camera, a PTZ camera, and a fixed camera) is operated by the user using the operation unit 13. The mask process (MOR process), the setting of the mask process (MOR process), the initial learning period, and the normal learning period can be set in association with each other. Further, by switching the four tabs (camera 1-16, camera 17-32, camera 33-48, camera 49-64) provided on the camera setting screen WD1A, for the corresponding camera in units of 16 cameras, Information on at least an IP address, mask processing (MOR processing), setting of mask processing (MOR processing), initial learning period, and normal learning period can be set.
マスク処理(MOR処理)の列CLM2Aでは、マスク処理の不実行(OFF)、マスクカメラでのマスク処理(CAM−MOR)の実行、又はクライアントPC10でのマスク処理(PC−MOR)の実行(ON)の3つのうちいずれかが選択される(枠WK2A参照)。言い換えると、図6のカメラ設定画面WD1におけるマスク処理の実行(ON)は、図20のカメラ設定画面WD1においては、マスクカメラでのマスク処理(CAM−MOR)の実行、又はクライアントPC10でのマスク処理(PC−MOR)の実行(ON)に該当する。 In the mask process (MOR process) column CLM2A, the mask process is not executed (OFF), the mask process (CAM-MOR) is executed by the mask camera, or the mask process (PC-MOR) is executed by the client PC 10 (ON). ) Is selected (see frame WK2A). In other words, execution (ON) of the mask process on the camera setting screen WD1 in FIG. 6 is executed on the camera setting screen WD1 in FIG. 20 by executing the mask process (CAM-MOR) on the mask camera or on the client PC 10. This corresponds to execution (ON) of processing (PC-MOR).
マスク処理(MOR処理)の設定の列CLM3では、列CLM2Aにおいて、マスクカメラでのマスク処理(CAM−MOR)又はクライアントPC10でのマスク処理(PC−MOR)が選択された場合に、マスク処理の対象外領域を設定させるための領域設定画面WD2を表示させる設定ボタン(枠WK1参照)が表示される。但し、列CLM2Aにおいてマスク処理の不実行(OFF)が選択されたカメラについては列CLM3の設定ボタンは押下可能に表示されない(例えば列CLM3の図20の紙面上から5段目,8段目,10段目,15段目の点線参照)。 In the column CLM3 for setting the mask process (MOR process), when the mask process (CAM-MOR) in the mask camera or the mask process (PC-MOR) in the client PC 10 is selected in the column CLM2A, the mask process is performed. A setting button (see frame WK1) for displaying an area setting screen WD2 for setting the non-target area is displayed. However, the setting button of the column CLM3 is not displayed so as to be able to be pressed for a camera for which non-execution of mask processing (OFF) is selected in the column CLM2A (for example, the fifth column, the eighth column from the page of FIG. 20 in the column CLM3, (See the dotted lines on the 10th and 15th stages).
図19において、マスクカメラは、ステップS42においてクライアントPC10から送信された指示に従い、その指示とともに送信されたカメラ設定情報を基に、そのカメラ設定情報により指定されるマスク処理の実行(ON)又は不実行(OFF)を設定し、設定した旨の応答をクライアントPC10に返す(S43)。 In FIG. 19, the mask camera follows the instruction transmitted from the client PC 10 in step S42, and executes (ON) or disables mask processing specified by the camera setting information based on the camera setting information transmitted together with the instruction. Execution (OFF) is set, and a response to the effect is returned to the client PC 10 (S43).
クライアントPC10は、通常カメラ及びマスクカメラに対し、それぞれ撮像の開始と撮像映像の配信とを指示する(S44)。通常カメラは、クライアントPC10からの指示に従い、撮像を開始し(S45)、以後、撮像により得られた撮像映像の配信を継続する(S47)。クライアントPC10は、通常カメラから配信された撮像映像を受信する。 The client PC 10 instructs the normal camera and the mask camera to start imaging and distribute the captured video (S44). The normal camera starts imaging in accordance with an instruction from the client PC 10 (S45), and thereafter continues to distribute the captured video obtained by imaging (S47). The client PC 10 receives a captured image distributed from a normal camera.
マスクカメラは、クライアントPC10からの指示に従い、撮像を開始し(S46)、更に、ステップS43において設定されたマスク処理の実行(ON)又は不実行(OFF)を判断する。つまり、マスクカメラは、ステップS43においてマスク処理の実行(ON)を設定した場合には、撮像により得られた撮像映像をマスク処理(図11及び図12参照)することで得た編集映像をクライアントPC10に向けて配信し、その配信を継続する(S48)。一方、マスクカメラは、ステップS43においてマスク処理の不実行(OFF)を設定した場合には、撮像により得られた撮像映像をそのままクライアントPC10に向けて配信し、その配信を継続する(S48)。 The mask camera starts imaging in accordance with an instruction from the client PC 10 (S46), and further determines whether the mask process set in step S43 is executed (ON) or not executed (OFF). That is, when the mask camera is set to execute (ON) in step S43, the mask camera displays the edited video obtained by performing mask processing (see FIGS. 11 and 12) on the captured video obtained by imaging. Distribution is performed toward the PC 10 and the distribution is continued (S48). On the other hand, if the mask process is set to non-execution (OFF) in step S43, the mask camera distributes the captured image obtained by the imaging as it is to the client PC 10, and continues the distribution (S48).
クライアントPC10は、通常カメラ又はマスクカメラに対応したカメラ設定情報の中で、マスクカメラがマスク処理を実行する旨もしくはマスク処理自体が不実行である旨が設定されている場合には、受信した撮像映像をそのままモニタDPに表示する(S49、図21参照)。 The client PC 10 receives the received image when it is set in the camera setting information corresponding to the normal camera or the mask camera that the mask camera executes the mask process or the mask process itself is not executed. The video is displayed on the monitor DP as it is (S49, see FIG. 21).
一方、クライアントPC10は、通常カメラ又はマスクカメラに対応したカメラ設定情報の中で、クライアントPC10がマスク処理を実行する旨が設定されている場合には、受信した撮像映像に対してマスク処理(図11及び図12参照)を行い、マスク処理により得た編集映像をモニタDPに表示する(S49、図21参照)。 On the other hand, if the client PC 10 is set to execute the mask process in the camera setting information corresponding to the normal camera or the mask camera, the client PC 10 performs the mask process (see FIG. 11 and FIG. 12), and the edited video obtained by the mask process is displayed on the monitor DP (S49, see FIG. 21).
図21の映像表示画面WD7Aでは、編集映像の表示領域全体(図17参照)のうち、4つの映像(具体的には、編集映像MV6A,MV7A,MV8A,MV9A)の表示領域が均等である。編集映像MV6A,MV9Aは、例えばマスクカメラにおいて撮像された撮像映像がマスクカメラにおいてマスク処理された結果として得られた編集映像がクライアントPC10においてそのまま表示されたものである。編集映像MV7Aは、例えばマスクカメラにおいて撮像された撮像映像がマスクカメラにおいてマスク処理されずクライアントPC10においてマスク処理された結果として得られた編集映像が表示されたものである。編集映像MV8Aは、例えば通常カメラにおいて撮像された撮像映像がクライアントPC10においてマスク処理された結果として得られた編集映像が表示されたものである。これにより、クライアントPC10は、マスク機能を有さない通常カメラやマスク機能を有するマスクカメラに対応したマスク処理の実行(ON)又は不実行(OFF)の設定に応じて、マスクカメラ又はクライアントPC10自身によりマスク処理された編集映像をモニタDPに分割表示できるので、個々のカメラで撮像された撮像映像中の人物のプライバシーを確保した上で、監視業務やマーケティング分析の効率化に資することができる。 In the video display screen WD7A of FIG. 21, the display areas of four videos (specifically, the edited videos MV6A, MV7A, MV8A, and MV9A) are equal in the entire display area of the edited video (see FIG. 17). The edited videos MV6A and MV9A are, for example, the edited videos obtained as a result of the masked image captured by the mask camera being displayed on the client PC 10 as they are. The edited video MV7A is, for example, displayed on the edited video obtained as a result of the captured video captured by the mask camera being masked by the client PC 10 without being masked by the mask camera. The edited video MV8A is displayed, for example, as an edited video obtained as a result of masking the captured video captured by the normal camera in the client PC 10. As a result, the client PC 10 can select the mask camera or the client PC 10 itself according to the execution (ON) or non-execution (OFF) setting of the mask process corresponding to the normal camera having no mask function or the mask camera having the mask function. Since the edited video that has undergone the mask processing can be divided and displayed on the monitor DP, it is possible to contribute to the efficiency of monitoring work and marketing analysis while ensuring the privacy of the person in the captured video captured by each camera.
以上により、第3の実施形態の監視カメラシステム100は、撮像エリアを撮像し、撮像エリアの撮像映像に現れる移動体(例えば人物)の少なくとも一部をマスク画像に変更するためのマスク処理を実行不能な通常カメラ(例えば全方位カメラCAM11)と、撮像映像に対するマスク処理の実行又は不実行の設定情報を保持するクライアントPC10と、を備える。クライアントPC10は、撮像映像に対するクライアントPC10でのマスク処理の実行が設定されている場合に、撮像映像をマスク処理するとともに、マスク処理により得た編集映像をモニタDPに表示する。一方、クライアントPC10は、撮像映像に対するクライアントPC10でのマスク処理の不実行が設定されている場合に、撮像映像をそのままモニタDPに表示する。 As described above, the surveillance camera system 100 according to the third embodiment captures an imaging area, and executes a mask process for changing at least a part of a moving body (for example, a person) appearing in a captured image of the imaging area to a mask image. A normal camera (for example, an omnidirectional camera CAM11) that cannot be performed, and a client PC 10 that holds setting information on whether or not to perform mask processing on a captured image. When the client PC 10 is set to execute mask processing on the captured video, the client PC 10 performs mask processing on the captured video and displays the edited video obtained by the mask processing on the monitor DP. On the other hand, the client PC 10 displays the captured image as it is on the monitor DP when the non-execution of the mask processing in the client PC 10 for the captured image is set.
第3の実施形態のクライアントPC10も、第1の実施形態と同様に、撮像映像に現れる移動中の人物の少なくとも一部又は全部をマスク画像に置き換えるマスク処理を行うことができる。これにより、クライアントPC10は、マスク機能を有さない通常カメラに対してマスク機能を別途追加すること無く、マスク機能を有さない通常カメラにより撮像された撮像映像に対してマスク処理を適切に施し、監視効率やマーケティング分析精度の向上を図ることができる。 Similarly to the first embodiment, the client PC 10 of the third embodiment can also perform mask processing that replaces at least a part or all of the moving person appearing in the captured image with a mask image. As a result, the client PC 10 appropriately performs mask processing on the captured image captured by the normal camera not having the mask function without separately adding a mask function to the normal camera not having the mask function. , Monitoring efficiency and marketing analysis accuracy can be improved.
また、第3の実施形態の監視カメラシステム100は、撮像エリアを撮像し、撮像エリアの撮像映像に現れる移動体(例えば人物)の少なくとも一部をマスク画像に変更するためのマスク処理を実行可能なマスクカメラ(例えば固定カメラCAM14)、を更に備える。クライアントPC10は、マスクカメラにおけるマスク処理の実行又は不実行の設定情報を保持し、マスクカメラにおけるマスク処理の実行が設定されている場合に、マスクカメラにおけるマスク処理に基づく編集映像をモニタDPにそのまま表示する。 Further, the surveillance camera system 100 according to the third embodiment can execute a mask process for capturing an imaging area and changing at least a part of a moving body (for example, a person) appearing in a captured image of the imaging area into a mask image. A mask camera (for example, a fixed camera CAM14). The client PC 10 holds setting information indicating whether or not to execute mask processing in the mask camera, and when the execution of mask processing in the mask camera is set, the edited video based on the mask processing in the mask camera is directly displayed on the monitor DP. indicate.
これにより、クライアントPC10は、マスク機能を既に有するマスクカメラに対するマスク処理の実行の設定によってマスク処理がなされた場合には、マスクカメラにより生成されたマスク処理後の編集映像を受信してそのまま表示することで、クライアントPC10におけるマスク処理の実行を省略できて処理負荷を軽減でき、負荷分散を図ることができる。 As a result, when the mask processing is performed by setting the execution of the mask processing for the mask camera that already has the mask function, the client PC 10 receives the edited video after the mask processing generated by the mask camera and displays it as it is. As a result, the execution of mask processing in the client PC 10 can be omitted, the processing load can be reduced, and load distribution can be achieved.
また、第3の実施形態の監視カメラシステム100は、撮像エリアを撮像し、撮像エリアの撮像映像に現れる移動体(例えば人物)の少なくとも一部をマスク画像に変更するためのマスク処理を実行可能なマスクカメラ(例えば固定カメラCAM14)、を更に備える。クライアントPC10は、マスクカメラにおけるマスク処理の実行又は不実行の設定情報を保持し、マスクカメラにおけるマスク処理の不実行が設定されている場合に、撮像映像をマスク処理し、このマスク処理により得た編集映像をモニタDPに表示する。 Further, the surveillance camera system 100 according to the third embodiment can execute a mask process for capturing an imaging area and changing at least a part of a moving body (for example, a person) appearing in a captured image of the imaging area into a mask image. A mask camera (for example, a fixed camera CAM14). The client PC 10 holds setting information on whether or not to execute mask processing in the mask camera, and when the mask processing in the mask camera is set not to be executed, the captured image is masked and obtained by this mask processing. The edited video is displayed on the monitor DP.
これにより、クライアントPC10は、例えばマスクカメラにおけるマスク処理よりも優れたマスク機能を有している場合(例えば、第1の実施形態で説明した、ユーザ操作に基づくマスク処理の対象外領域を除いた領域において行うマスク処理を行える場合)には、マスクカメラで行われるマスク処理により得られる編集映像よりも、ユーザの嗜好に沿うマスク処理後の編集映像を得ることができ、ユーザの使い勝手を向上できる。 Thereby, the client PC 10 has a mask function superior to the mask processing in the mask camera, for example (for example, excluding the non-maskable area for the mask processing based on the user operation described in the first embodiment) When the mask processing performed in the area can be performed), the edited video after the mask processing according to the user's preference can be obtained rather than the edited video obtained by the mask processing performed by the mask camera, and user convenience can be improved. .
(第4の実施形態の内容に至る経緯)
特許文献1によれば、監視エリアにおいて検知された人物の動画映像内の位置情報及び人物の属性(例えば性別、年齢)毎にマスク画像が生成されるため、そのマスク画像により、プライバシーを確保した上で店舗内の人物の行動が把握可能となる。
(Background to the contents of the fourth embodiment)
According to Patent Document 1, since a mask image is generated for each position information and person attribute (for example, gender, age) in a moving image of a person detected in a monitoring area, privacy is ensured by the mask image. The behavior of the person in the store can be grasped above.
しかしながら、特許文献1では、動画映像において検知された人物の画像領域をマスク画像に変更するのはカメラであり、カメラからの動画映像を受信する受信装置(例えばユーザが使用するクライアントPC)によりマスク処理が行われることは考慮されていない。 However, in Patent Document 1, it is a camera that changes the image area of a person detected in a moving image to a mask image, and the mask is set by a receiving device (for example, a client PC used by a user) that receives the moving image from the camera. It is not taken into account that processing is performed.
つまり、特許文献1では、マスク処理はカメラでしか行えなかったため、現在撮像中のライブ映像(撮像映像)はカメラにおいてマスク処理が可能であるが、レコーダに既に記憶されている過去の撮像映像(以下、「録画映像」という)に対してはマスク処理を行うことはできなかった。 That is, in Patent Document 1, since the mask process can be performed only by the camera, the live image (captured image) currently being captured can be masked by the camera, but the past captured image (which is already stored in the recorder) Hereinafter, the mask process could not be performed on “recorded video”.
このため、何かしらのイベントの録画映像を事後的に検証する際、被写体の人物のプライバシーを保護するために、例えば権限のある人(マネージャ等)と権限のない人(一般ユーザ)とがそれぞれアクセス可能な録画映像を2種類用意する必要があった。例えば権限のある人は録画映像中の人物がマスク処理されていない録画映像を閲覧可能であり、一般ユーザは録画映像中の人物がマスク処理された録画映像を閲覧する。このような運用下では、同じ場面の撮像映像を録画するためにレコーダの記憶容量の増大が避けられなかった。特に近年、撮像映像の画質が高画質化(例えば4K化)していることもあり、レコーダに記憶される撮像映像のデータ量は膨大である。 For this reason, when a recorded video of an event is verified afterwards, for example, an authorized person (manager, etc.) and an unauthorized person (general user) access to protect the privacy of the subject person. It was necessary to prepare two types of recorded video. For example, an authorized person can browse a recorded video in which a person in the recorded video is not masked, and a general user browses a recorded video in which a person in the recorded video is masked. Under such an operation, the recording capacity of the recorder is inevitably increased in order to record the captured image of the same scene. Particularly in recent years, the image quality of captured images has been improved (for example, 4K), and the amount of captured image data stored in the recorder is enormous.
言い換えると、上述した2種類の録画映像を用意するためには、1台のカメラでは足りず、例えば2台のカメラ(具体的には、マスク処理を実行する機能(以下、「マスク機能」という)を有するカメラと、マスク機能を有さないカメラ)が必要となる。このため、システム構築において部品点数が増加するのでコストアップが避けられず、システム構成も煩雑であった。また、上述したクライアントPCにおいてマスク処理ができないと、権限の有無(上述したマネージャと、一般ユーザのような権限の有無)だけで2種類の録画映像が必要となる場合に限定されず、例えばイベントの内容や種類によってもマスク処理された録画映像とマスク処理されていない録画映像との2種類の録画映像が必要となることもあった。 In other words, in order to prepare the two types of recorded video described above, one camera is not sufficient, for example, two cameras (specifically, a function for executing mask processing (hereinafter referred to as “mask function”). ) And a camera that does not have a mask function. For this reason, since the number of parts increases in system construction, the cost increase cannot be avoided, and the system configuration is complicated. Further, if the above-described client PC cannot perform mask processing, the present invention is not limited to the case where two types of recorded video are required only by the presence / absence of authority (whether or not the authority is the same as that of the above-mentioned manager and general user). Depending on the content and type of the recorded video, two types of recorded video, that is, a recorded video that has been masked and a recorded video that has not been masked, may be required.
そこで、第4の実施形態では、過去にカメラに撮像されてレコーダに既に記憶されているイベントの録画映像を閲覧する際に、その録画映像1つのデータを用いて、マスク処理を行うか又はマスク処理を行わないかを簡単に選択し、監視効率やマーケティング分析精度の向上を図るモニタリングシステム及び映像表示方法の例を説明する。 Therefore, in the fourth embodiment, when browsing a recorded video of an event that has been captured by the camera and is already stored in the recorder in the past, a mask process is performed or masked using one data of the recorded video. An example of a monitoring system and an image display method for easily selecting whether to perform processing and improving the monitoring efficiency and marketing analysis accuracy will be described.
(第4の実施形態)
第4の実施形態のモニタリングシステムとして、第3の実施形態で説明した監視カメラシステム100を例示して説明する。第4の実施形態の監視カメラシステム100の内部構成は第3の実施形態の監視カメラシステム100と同一であるため、同一の内容の説明は簡略化又は省略し、異なる内容について説明する。
(Fourth embodiment)
The monitoring camera system 100 described in the third embodiment will be described as an example of a monitoring system according to the fourth embodiment. Since the internal configuration of the monitoring camera system 100 of the fourth embodiment is the same as that of the monitoring camera system 100 of the third embodiment, the description of the same contents will be simplified or omitted, and different contents will be described.
第4の実施形態では、図1に示す監視カメラシステム100において、少なくとも一つのカメラが接続されている各レコーダ(つまり、レコーダREC1,REC2,REC3)には、各レコーダに接続されている少なくとも一つのカメラとの間でペアリング(言い換えると、紐付け)されている。より具体的には、レコーダREC1には、全方位カメラCAM11、PTZカメラCAM12,CAM13及び固定カメラCAM14がペアリング(紐付け)されている。レコーダREC2には、PTZカメラCAM21及び固定カメラCAM22がペアリング(紐付け)されている。レコーダREC3には、全方位カメラCAM31、PTZカメラCAM32,CAM33及び固定カメラCAM34がペアリング(紐付け)されている。この少なくとも一つのカメラとレコーダとのペアリングの関係は第4の実施形態に限定されず、上述した第1,第2,第3の各実施形態においても同様に適用されても構わない。 In the fourth embodiment, in the surveillance camera system 100 shown in FIG. 1, each recorder to which at least one camera is connected (that is, the recorders REC1, REC2, and REC3) has at least one connected to each recorder. Paired (in other words, tied) with two cameras. More specifically, an omnidirectional camera CAM11, PTZ cameras CAM12, CAM13, and a fixed camera CAM14 are paired (linked) to the recorder REC1. A PTZ camera CAM21 and a fixed camera CAM22 are paired (linked) to the recorder REC2. The recorder REC3 is paired (linked) with an omnidirectional camera CAM31, a PTZ camera CAM32, a CAM33, and a fixed camera CAM34. The pairing relationship between the at least one camera and the recorder is not limited to the fourth embodiment, and may be similarly applied to the first, second, and third embodiments described above.
図22は、レコーダ設定画面WD8の一例を示す図である。クライアントPC10のプロセッサ11は、レコーダ設定画面WD8を表示するためのユーザ操作に応じて、モニタDPにレコーダ設定画面WD8を表示する。 FIG. 22 is a diagram showing an example of the recorder setting screen WD8. The processor 11 of the client PC 10 displays the recorder setting screen WD8 on the monitor DP in response to a user operation for displaying the recorder setting screen WD8.
レコーダ設定画面WD8では、ユーザ操作により、レコーダの設定が行われる。例えば、レコーダのIPアドレス、レコーダのHTTP(Hypertext Transfer Protocol)ポート番号、名称、FTP(File Transfer Protocol)ポート番号、タイムゾーン、ペアリングされている少なくとも一つのカメラの設定(setup)が行われる。図22では、例えば4つのレコーダに関して、それぞれのデバイス、モデル、IPアドレスが例示的に示されている。 On the recorder setting screen WD8, the recorder is set by a user operation. For example, the IP address of the recorder, the HTTP (Hypertext Transfer Protocol) port number, the name, the FTP (File Transfer Protocol) port number, the time zone, and the setup of at least one paired camera are performed. FIG. 22 exemplarily shows respective devices, models, and IP addresses for four recorders, for example.
モニタDPに表示されたレコーダ設定画面WD8において、ユーザ操作により、「Device mng.」(デバイスマネージャ、枠WK4参照)、「Recorder」(枠WK5参照)、いずれかのレコーダを特定するレコード(枠WK6参照)の順に押下されて選択されると、プロセッサ11は、その選択前には押下不可であったEditボタン(枠WK7参照)を押下可能に表示切替する。 In the recorder setting screen WD8 displayed on the monitor DP, a record (frame WK6) for specifying one of the recorders “Device mng.” (Device manager, see frame WK4), “Recorder” (see frame WK5), by user operation. When the selection is made by pressing in the order of “reference”, the processor 11 switches the display so that the Edit button (see the frame WK7) that cannot be pressed before the selection can be pressed.
ユーザ操作により、Editボタン(枠WK7参照)が押下されると、プロセッサ11は、選択されたレコード(枠WK6参照)のレコーダにペアリングされている少なくとも一つのカメラに関するカメラ設定画面(図20参照)をモニタDPに表示する。このカメラ設定画面(図20参照)において設定可能な項目は第3の実施形態(図20参照)において説明した内容と同一であるため、詳細な説明は省略する。 When the Edit button (see frame WK7) is pressed by a user operation, the processor 11 sets a camera setting screen (see FIG. 20) related to at least one camera paired with the recorder of the selected record (see frame WK6). ) Is displayed on the monitor DP. Items that can be set on the camera setting screen (see FIG. 20) are the same as those described in the third embodiment (see FIG. 20), and thus detailed description thereof is omitted.
次に、本実施形態のクライアントPC10のマスク処理の設定に関する動作手順について、図23(A)及び図23(B)を参照して説明する。図23(A)は、第4の実施形態における、マスク処理(MOR処理)の設定の動作手順の第1例を詳細に説明するシーケンス図である。図23(B)は、第4の実施形態における、マスク処理(MOR処理)の設定の動作手順の第2例を詳細に説明するシーケンス図である。 Next, an operation procedure related to the mask processing setting of the client PC 10 of the present embodiment will be described with reference to FIGS. 23 (A) and 23 (B). FIG. 23A is a sequence diagram illustrating in detail a first example of an operation procedure for setting mask processing (MOR processing) in the fourth embodiment. FIG. 23B is a sequence diagram illustrating in detail a second example of the operation procedure for setting mask processing (MOR processing) in the fourth embodiment.
図23(A)において、ユーザ操作により、クライアントPC10の機器設定が開始される操作があると(S51)、クライアントPC10は、例えばレコーダ設定画面WD8のEditボタン(枠WK7参照)の押下に基づいて表示されるカメラ設定画面(図20参照)をモニタDPに表示する。クライアントPC10は、このカメラ設定画面に対するユーザ操作により、レコーダ(例えばレコーダREC1)とペアリングされているマスクカメラ(つまり、マスク機能を実行可能な固定カメラCAM14)に対するマスク処理の実行(ON)又は不実行(OFF)の設定をそのレコーダに指示する(S52)。 In FIG. 23A, when there is an operation for starting device setting of the client PC 10 by a user operation (S51), the client PC 10 is based on, for example, pressing the Edit button (see frame WK7) on the recorder setting screen WD8. The displayed camera setting screen (see FIG. 20) is displayed on the monitor DP. The client PC 10 executes (ON) or does not perform mask processing on the mask camera (that is, the fixed camera CAM 14 capable of executing the mask function) paired with the recorder (for example, the recorder REC1) by a user operation on the camera setting screen. The recorder is instructed to execute (OFF) (S52).
レコーダ(例えばレコーダREC1)は、ステップS52のクライアントPC10からの指示に従い、自己(例えばレコーダREC1)とペアリングされているマスクカメラ(つまり、固定カメラCAM14)に対するマスク処理の実行(ON)又は不実行(OFF)の設定をマスクカメラに指示する(S53)。マスクカメラは、ステップS53のレコーダからの指示に従い、マスク処理の実行(ON)又は不実行(OFF)を設定し(S54)、設定を完了した旨の応答をレコーダに返す。レコーダは、マスクカメラからの設定完了の旨の応答を受信すると、同様に設定完了の旨の応答をクライアントPC10に返す。 The recorder (for example, the recorder REC1) executes (ON) or does not execute the mask processing for the mask camera (that is, the fixed camera CAM14) paired with itself (for example, the recorder REC1) in accordance with the instruction from the client PC 10 in step S52. The mask camera is instructed to set (OFF) (S53). The mask camera sets execution (ON) or non-execution (OFF) of the mask process according to the instruction from the recorder in step S53 (S54), and returns a response to the effect that the setting is completed to the recorder. When the recorder receives a response indicating the completion of setting from the mask camera, the recorder similarly returns a response indicating the completion of setting to the client PC 10.
これにより、例えばクライアントPC10とマスクカメラとが同一の拠点又は店舗に存在しない場合には、クライアントPC10はマスクカメラに対して直接のマスク処理の設定を行うことができないが、クライアントPC10とマスクカメラとのデータ送受信を仲介するレコーダを介在させることで、クライアントPC10からマスクカメラへのマスク処理の設定を円滑に行うことができる。 Thereby, for example, when the client PC 10 and the mask camera do not exist in the same base or store, the client PC 10 cannot set the mask processing directly for the mask camera, but the client PC 10 and the mask camera By interposing a recorder that mediates the data transmission / reception, the mask processing from the client PC 10 to the mask camera can be set smoothly.
図23(B)において、ユーザ操作により、クライアントPC10の機器設定が開始される操作があると(S51)、クライアントPC10は、例えばレコーダ設定画面WD8のEditボタン(枠WK7参照)の押下に基づいて表示されるカメラ設定画面(図20参照)をモニタDPに表示する。クライアントPC10は、このカメラ設定画面に対するユーザ操作により、レコーダ(例えばレコーダREC1)とペアリングされているマスクカメラ(つまり、マスク機能を実行可能な固定カメラCAM14)に対するマスク処理の実行(ON)又は不実行(OFF)の設定をマスクカメラに対して直接に指示する(S52A)。 In FIG. 23B, when there is an operation for starting device setting of the client PC 10 by a user operation (S51), the client PC 10 is based on, for example, pressing the Edit button (see frame WK7) on the recorder setting screen WD8. The displayed camera setting screen (see FIG. 20) is displayed on the monitor DP. The client PC 10 executes (ON) or does not perform mask processing on the mask camera (that is, the fixed camera CAM 14 capable of executing the mask function) paired with the recorder (for example, the recorder REC1) by a user operation on the camera setting screen. The execution (OFF) setting is instructed directly to the mask camera (S52A).
マスクカメラは、ステップS52AのクライアントPC10からの指示に従い、マスク処理の実行(ON)又は不実行(OFF)を設定し(S54A)、設定を完了した旨の応答をクライアントPC10に直接に返す。 The mask camera sets execution (ON) or non-execution (OFF) of mask processing in accordance with the instruction from the client PC 10 in step S52A (S54A), and directly returns a response indicating that the setting has been completed to the client PC 10.
これにより、例えばクライアントPC10とマスクカメラとが同一の拠点又は店舗に存在する場合には、クライアントPC10は、レコーダを介することなく、マスクカメラに対して直接のマスク処理の設定を円滑かつ簡易に行うことができる。 Thereby, for example, when the client PC 10 and the mask camera exist in the same base or store, the client PC 10 smoothly and easily sets the mask processing directly on the mask camera without going through the recorder. be able to.
次に、本実施形態のクライアントPC10のマスク処理の設定後における撮像映像の表示に関する動作手順について、図24〜図26を参照して説明する。図24は、第4の実施形態における、運用開始後のクライアントPCにおける撮像画像の取得及び表示に関する動作手順の第1例を詳細に説明するシーケンス図である。図25は、第4の実施形態における、運用開始後のクライアントPCにおける撮像画像の取得及び表示に関する動作手順の第2例を詳細に説明するシーケンス図である。図26は、図24,図25のステップS69における、クライアントPCの表示の動作手順の一例を詳細に説明するフローチャートである。 Next, an operation procedure related to display of a captured image after setting of mask processing of the client PC 10 of the present embodiment will be described with reference to FIGS. FIG. 24 is a sequence diagram illustrating in detail a first example of an operation procedure regarding acquisition and display of a captured image in a client PC after the start of operation according to the fourth embodiment. FIG. 25 is a sequence diagram illustrating in detail a second example of an operation procedure regarding acquisition and display of a captured image in a client PC after the start of operation according to the fourth embodiment. FIG. 26 is a flowchart for explaining in detail an example of the operation procedure of the display of the client PC in step S69 of FIGS.
図25の説明において、図25に示す処理と図24に示す処理とが同一である場合には、同一のステップ番号を付与して説明を簡略化又は省略し、異なる内容について説明する。 In the description of FIG. 25, when the process shown in FIG. 25 and the process shown in FIG. 24 are the same, the same step number is assigned and the description is simplified or omitted, and different contents will be described.
図24において、ユーザ操作により、クライアントPC10の運用が開始される操作があると(S61)、クライアントPC10は、映像の配信開始(つまり、録画をレコーダに指示する(S62)。 In FIG. 24, when there is an operation for starting the operation of the client PC 10 by a user operation (S61), the client PC 10 instructs the recorder to start distributing video (that is, to record (S62)).
レコーダは、ステップS62のクライアントPC10の指示に従い、撮像映像もしくは編集映像の配信を開始するか、又は撮像映像もしくは編集映像の配信の開始をマスクカメラ及び通常カメラに対してそれぞれ指示する(S63)。マスクカメラは、ステップS63のレコーダの指示に従い、撮像を開始する(S64)。同様に、通常カメラは、ステップS63のレコーダの指示に従い、撮像を開始する(S65)。 In accordance with the instruction of the client PC 10 in step S62, the recorder starts distributing the captured video or edited video, or instructs the mask camera and the normal camera to start distributing the captured video or edited video (S63). The mask camera starts imaging in accordance with the instruction of the recorder in step S63 (S64). Similarly, the normal camera starts imaging according to the instruction of the recorder in step S63 (S65).
通常カメラは、マスク処理を行うことができないので、撮像を開始した後、撮像により得た撮像映像のレコーダへの配信を継続する(S66)。なお、レコーダは、ステップS66において通常カメラから配信された撮像映像(ライブ映像)を受信すると、ストレージR14に保存する(S68)。 Since the normal camera cannot perform the masking process, after starting imaging, distribution of the captured video obtained by imaging to the recorder is continued (S66). When the recorder receives the captured video (live video) distributed from the normal camera in step S66, the recorder stores it in the storage R14 (S68).
マスクカメラは、撮像を開始した後、図23(A)又は図23(B)においてマスク処理の実行(ON)が設定されている場合には、ステップS64の撮像開始により得た撮像映像をマスク処理(例えば図11及び図12参照)して得た編集映像のレコーダへの配信を継続する(S67)。一方、マスクカメラは、撮像を開始した後、図23(A)又は図23(B)においてマスク処理の不実行(OFF)が設定されている場合には、ステップS64の撮像開始により得た撮像映像のレコーダへの配信を継続する(S67)。なお、レコーダは、ステップS67においてマスクカメラから配信された撮像映像(ライブ映像)又は編集映像を受信すると、ストレージR14に保存する(S68)。 After the start of imaging, the mask camera masks the captured image obtained by the start of imaging in step S64 when the execution (ON) of the mask process is set in FIG. 23 (A) or FIG. 23 (B). Distribution of the edited video obtained by the processing (for example, see FIGS. 11 and 12) to the recorder is continued (S67). On the other hand, the mask camera, after starting imaging, when the non-execution (OFF) of the mask processing is set in FIG. 23A or FIG. 23B, imaging obtained by starting imaging in step S64. Distribution of the video to the recorder is continued (S67). Note that when the recorder receives the captured video (live video) or the edited video distributed from the mask camera in step S67, the recorder stores it in the storage R14 (S68).
ステップS62において、例えば過去にレコーダに記憶された録画映像を配信するためのユーザ操作がなされた場合には、このユーザ操作により、映像の配信開始の指示には、ユーザが希望する撮像日時(言い換えると、録画日時)の指定情報が含まれる。この場合、レコーダは、クライアントPC10から送信された撮像日時に撮像された録画映像をストレージR14から読み出してクライアントPC10に配信する(S68)。 In step S62, for example, when a user operation for distributing a recorded video stored in the recorder in the past is performed, an instruction to start video distribution is given by the user operation (in other words, an imaging date and time desired by the user). And recording date and time) are included. In this case, the recorder reads from the storage R14 the recorded video imaged at the imaging date and time transmitted from the client PC 10 and distributes it to the client PC 10 (S68).
ステップS62において、例えばカメラにより撮像された撮像映像を配信するためのユーザ操作がなされた場合には、映像の配信開始の指示により、カメラが現在撮像している撮像映像(ライブ映像)が配信される。この場合、レコーダは、ステップS66において通常カメラから配信された撮像映像、及びステップS67においてマスクカメラから配信された撮像映像又は編集映像をクライアントPC10に配信し、その配信を継続する(S68)。 In step S62, for example, when a user operation for distributing a captured image captured by the camera is performed, the captured image (live image) currently captured by the camera is distributed in accordance with an instruction to start distributing the image. The In this case, the recorder distributes the captured video distributed from the normal camera in step S66 and the captured video or edited video distributed from the mask camera in step S67 to the client PC 10, and continues the distribution (S68).
クライアントPC10は、ステップS68においてレコーダから配信された撮像映像(ライブ映像)、録画映像又は編集映像を、レコーダとペアリング(紐付け)されているカメラの種別毎に設定されたマスク処理の実行(ON)又は不実行(OFF)の設定に従って、映像をモニタDPに表示する(S69)。ステップS69の詳細については、図26を参照して後述する。 The client PC 10 executes the mask processing set for each type of camera paired (linked) with the captured video (live video), recorded video, or edited video distributed from the recorder in step S68 ( The video is displayed on the monitor DP according to the setting of ON or non-execution (OFF) (S69). Details of step S69 will be described later with reference to FIG.
図25において、通常カメラは、マスク処理を行うことができないので、撮像を開始した後、撮像により得た撮像映像のレコーダ及びクライアントPC10へのそれぞれの配信を継続する(S66A)。なお、レコーダは、ステップS66Aにおいて通常カメラから配信された撮像映像(ライブ映像)を受信すると、ストレージR14に保存する(S68A)。 In FIG. 25, since the normal camera cannot perform the masking process, after starting the imaging, the distribution of the captured video obtained by the imaging to the recorder and the client PC 10 is continued (S66A). When the recorder receives the captured video (live video) distributed from the normal camera in step S66A, the recorder stores it in the storage R14 (S68A).
マスクカメラは、撮像を開始した後、図23(A)又は図23(B)においてマスク処理の実行(ON)が設定されている場合には、ステップS64の撮像開始により得た撮像映像をマスク処理(例えば図11及び図12参照)して得た編集映像のレコーダ及びクライアントPC10へのそれぞれの配信を継続する(S67A)。一方、マスクカメラは、撮像を開始した後、図23(A)又は図23(B)においてマスク処理の不実行(OFF)が設定されている場合には、ステップS64の撮像開始により得た撮像映像のレコーダ及びクライアントPC10へのそれぞれの配信を継続する(S67A)。なお、レコーダは、ステップS67Aにおいてマスクカメラから配信された撮像映像(ライブ映像)又は編集映像を受信すると、ストレージR14に保存する(S68A)。 After the start of imaging, the mask camera masks the captured image obtained by the start of imaging in step S64 when the execution (ON) of the mask process is set in FIG. 23 (A) or FIG. 23 (B). The distribution of the edited video obtained by the processing (for example, see FIGS. 11 and 12) to the recorder and the client PC 10 is continued (S67A). On the other hand, the mask camera, after starting imaging, when the non-execution (OFF) of the mask processing is set in FIG. 23A or FIG. 23B, imaging obtained by starting imaging in step S64. The distribution of the video to the recorder and the client PC 10 is continued (S67A). When the recorder receives the captured video (live video) or edited video distributed from the mask camera in step S67A, the recorder stores it in the storage R14 (S68A).
ステップS62において、例えば過去にレコーダに記憶された録画映像を配信するためのユーザ操作がなされた場合には、このユーザ操作により、映像の配信開始の指示には、ユーザが希望する撮像日時(言い換えると、録画日時)の指定情報が含まれる。この場合、レコーダは、クライアントPC10から送信された撮像日時に撮像された録画映像をストレージR14から読み出してクライアントPC10に配信する(S68A)。 In step S62, for example, when a user operation for distributing a recorded video stored in the recorder in the past is performed, an instruction to start video distribution is given by the user operation (in other words, an imaging date and time desired by the user). And recording date and time) are included. In this case, the recorder reads out the recorded video imaged at the imaging date and time transmitted from the client PC 10 from the storage R14 and distributes it to the client PC 10 (S68A).
クライアントPC10は、ステップS68においてレコーダから配信された撮像映像(ライブ映像)、録画映像又は編集映像を、レコーダとペアリング(紐付け)されているカメラの種別毎に設定されたマスク処理の実行(ON)又は不実行(OFF)の設定に従って、映像をモニタDPに表示する(S69)。ステップS69の詳細については、図26を参照して後述する。 The client PC 10 executes the mask processing set for each type of camera paired (linked) with the captured video (live video), recorded video, or edited video distributed from the recorder in step S68 ( The video is displayed on the monitor DP according to the setting of ON or non-execution (OFF) (S69). Details of step S69 will be described later with reference to FIG.
図26において、クライアントPC10は、ステップS68又はステップS68Aにおいてレコーダ、マスクカメラ又は通常カメラのいずれかから配信された映像を受信して取得する(S71)。 In FIG. 26, the client PC 10 receives and acquires the video distributed from any of the recorder, the mask camera, and the normal camera in step S68 or step S68A (S71).
クライアントPC10は、ストレージ15又はメモリ16に記憶されているカメラ設定情報(図22及び図20参照)を読み出し、ステップS71において取得した映像の配信元のレコーダとペアリングされているカメラ又はその映像の配信元のカメラに対するマスク処理の実行又は不実行の設定を参照する(S72)。 The client PC 10 reads the camera setting information (see FIGS. 22 and 20) stored in the storage 15 or the memory 16, and the camera paired with the recorder of the video distribution source acquired in step S71 or the video of the video. Reference is made to the setting of execution or non-execution of mask processing for the distribution source camera (S72).
クライアントPC10は、カメラ設定情報においてマスク処理の不実行(OFF)が設定されていると判断した場合には、ステップS71において取得した映像(具体的には、撮像映像又は録画映像)をそのままモニタDPに表示する(S73)。 If the client PC 10 determines that the mask processing non-execution (OFF) is set in the camera setting information, the video (specifically, the captured video or the recorded video) acquired in step S71 is directly monitored DP (S73).
クライアントPC10は、カメラ設定情報において該当するカメラでのマスク処理の実行(ON)が設定されていると判断した場合には、ステップS71において取得した映像(具体的には、マスクカメラによりマスク処理が施されて生成された編集映像)をそのままモニタDPに表示する(S73)。 If the client PC 10 determines that the execution (ON) of the mask process in the corresponding camera is set in the camera setting information, the image acquired in step S71 (specifically, the mask process is performed by the mask camera). The edited video that has been applied is displayed on the monitor DP as it is (S73).
クライアントPC10は、カメラ設定情報において該当するカメラに関してクライアントPC10でのマスク処理の実行が設定されていると判断した場合には、ステップS71において取得した映像(具体的には、撮像映像又は編集映像)をマスク処理(図11及び図12)し、このマスク処理により得た編集映像をモニタDPに表示する(S74)。但し、クライアントPC10がステップS71においてレコーダから配信された編集映像を受信した場合に、この編集映像のデータにマスクカメラによってマスク処理が施された旨の情報が含まれている場合には、クライアントPC10は、現在のカメラ設定情報の内容を加味することなく、受信した編集映像をマスク処理することなく優先的にそのままモニタDPに表示しても構わない。これにより、クライアントPC10は、他のデバイス(つまり、マスクカメラ)において既にマスク処理された編集映像に対し、更なるマスク処理の実行を省略することができ、クライアントPC10の処理負荷を軽減できるとともに、その編集映像の視認性の劣化を抑制できる。 If the client PC 10 determines that execution of mask processing in the client PC 10 is set for the corresponding camera in the camera setting information, the video (specifically, captured video or edited video) acquired in step S71. Is masked (FIGS. 11 and 12), and the edited video obtained by the masking is displayed on the monitor DP (S74). However, when the client PC 10 receives the edited video distributed from the recorder in step S71, if the edited video data includes information indicating that the mask processing has been performed by the mask camera, the client PC 10 May be preferentially displayed on the monitor DP without masking the received edited video without taking into account the contents of the current camera setting information. As a result, the client PC 10 can omit the execution of further mask processing on the edited video that has already been masked in another device (that is, the mask camera), and can reduce the processing load on the client PC 10. Degradation of the visibility of the edited video can be suppressed.
以上により、第4の実施形態の監視カメラシステム100は、撮像エリアを撮像する少なくとも一つのカメラ(例えば全方位カメラCAM11,固定カメラCAM14,…)と、このカメラと対応付けられ、撮像エリアの撮像映像を録画映像として撮像日時と関連付けて記憶するレコーダ(例えばレコーダREC1)と、撮像エリアの撮像映像に現れる移動体(例えば人物)の少なくとも一部をマスク画像に変更するためのマスク処理の実行又は不実行の設定情報を、レコーダに対応付けられるカメラごとに保持するクライアントPC10と、を備える。クライアントPC10は、例えばユーザ操作による撮像日時の指定に応じて、マスク処理の実行が設定されている場合に、指定された撮像日時に撮像された録画映像をマスク処理して得た編集録画映像をモニタDPに表示する。一方、クライアントPC10は、マスク処理の不実行が設定されている場合に、指定された撮像日時に撮像された録画映像をそのままモニタDPに表示する。 As described above, the surveillance camera system 100 according to the fourth embodiment is associated with at least one camera (for example, the omnidirectional camera CAM11, the fixed camera CAM14,...) That images the imaging area, and captures the imaging area. Execution of mask processing for changing at least a part of a moving object (for example, a person) appearing in the captured image in the imaging area to a mask image, or a recorder (for example, the recorder REC1) that stores the video as a recorded video in association with the imaging date And a client PC 10 that holds non-executable setting information for each camera associated with the recorder. For example, when execution of mask processing is set in response to designation of an imaging date and time by a user operation, the client PC 10 displays an edited video image obtained by masking a recorded video imaged at the designated imaging date and time. Display on monitor DP. On the other hand, when the non-execution of the mask process is set, the client PC 10 displays the recorded video captured at the designated imaging date and time as it is on the monitor DP.
第4の実施形態のクライアントPC10も、第1の実施形態と同様に、撮像映像に現れる移動中の人物の少なくとも一部又は全部をマスク画像に置き換えるマスク処理を行うことができる。これにより、クライアントPC10は、過去にカメラに撮像されてレコーダに既に記憶されているイベントの録画映像を閲覧する際に、その録画映像1つのデータを用いて、クライアントPC10においてマスク処理を行うか又はマスク処理を行わないかを簡単に選択することができ、監視効率やマーケティング分析精度の向上を図ることができる。 Similarly to the first embodiment, the client PC 10 of the fourth embodiment can also perform mask processing that replaces at least a part or all of the moving person appearing in the captured image with a mask image. As a result, when the client PC 10 browses a recorded video of an event that has been captured by the camera in the past and is already stored in the recorder, the client PC 10 performs a mask process in the client PC 10 using one piece of the recorded video. It is possible to easily select whether or not to perform mask processing, and it is possible to improve monitoring efficiency and marketing analysis accuracy.
また、第4の実施形態の監視カメラシステム100において、少なくとも一つのカメラは、マスク処理を実行不能な通常カメラ(例えば全方位カメラCAM11)を含む。クライアントPC10は、通常カメラにより撮像された撮像映像に対するマスク処理の実行(ON)が設定されている場合に、撮像映像をマスク処理して得た編集映像をモニタDPに表示する。一方、クライアントPC10は、通常カメラにより撮像された撮像映像に対するマスク処理の不実行(OFF)が設定されている場合に、撮像映像をそのままモニタDPに表示する。 In the surveillance camera system 100 of the fourth embodiment, at least one camera includes a normal camera (for example, an omnidirectional camera CAM11) that cannot perform mask processing. The client PC 10 displays the edited video obtained by masking the captured video on the monitor DP when the execution (ON) of the mask processing for the captured video captured by the normal camera is set. On the other hand, the client PC 10 displays the captured image as it is on the monitor DP when the non-execution (OFF) of the mask processing for the captured image captured by the normal camera is set.
これにより、クライアントPC10は、通常カメラにより撮像されている現在の撮像映像(ライブ映像)を受信している場合に、通常カメラでの撮像映像に対するマスク処理の実行又は不実行の設定に応じて、ユーザの嗜好に適合する撮像映像又は編集映像をモニタDPに表示することができ、ユーザの監視業務やマーケティング分析の精度向上に資することができる。 Thereby, when the client PC 10 receives the current captured video (live video) captured by the normal camera, depending on the setting of execution or non-execution of the mask processing on the captured image by the normal camera, Captured video or edited video that matches the user's preference can be displayed on the monitor DP, which can contribute to improving the accuracy of user monitoring operations and marketing analysis.
また、第4の実施形態の監視カメラシステム100において、少なくとも一つのカメラは、マスク処理を実行可能なマスクカメラ(例えば固定カメラCAM14)を含む。クライアントPC10は、マスクカメラにより撮像された撮像映像に対するマスクカメラにおけるマスク処理の実行が設定されている場合に、マスクカメラにより撮像映像がマスク処理された編集映像をそのままモニタDPに表示する。一方、クライアントPC10は、マスクカメラにより撮像された撮像映像に対するクライアントPC10におけるマスク処理の実行が設定されている場合に、撮像映像をマスク処理し、その結果として得た編集映像をモニタDPに表示する。 In the surveillance camera system 100 of the fourth embodiment, at least one camera includes a mask camera (for example, a fixed camera CAM 14) capable of performing mask processing. When execution of mask processing in the mask camera is set for the captured image captured by the mask camera, the client PC 10 directly displays the edited image in which the captured image is masked by the mask camera on the monitor DP. On the other hand, when execution of mask processing in the client PC 10 is set for the captured image captured by the mask camera, the client PC 10 masks the captured image and displays the resulting edited image on the monitor DP. .
これにより、クライアントPC10は、マスク機能を既に有するマスクカメラに対するマスク処理の実行の設定によってマスク処理がなされた場合、マスクカメラにより生成されたマスク処理後の編集映像を受信してそのまま表示することで、クライアントPC10におけるマスク処理の実行を省略できて処理負荷を軽減でき、負荷分散を図ることができる。また、クライアントPC10は、クライアントPC10におけるマスク処理の実行の設定によってマスク処理がなされた場合には、例えばマスクカメラにおけるマスク処理よりも優れたマスク機能(例えば、第1の実施形態で説明した、ユーザ操作に基づくマスク処理の対象外領域を除いた領域において行うマスク処理を行える場合)によって得た編集映像を得ることができ、ユーザのニーズに適合した映像を確認させることができる。 As a result, when the mask process is performed by setting the execution of the mask process for the mask camera that already has the mask function, the client PC 10 receives the edited video after the mask process generated by the mask camera and displays it as it is. The execution of the mask process in the client PC 10 can be omitted, the processing load can be reduced, and the load can be distributed. Further, when the mask processing is performed by setting the execution of the mask processing in the client PC 10, the client PC 10 has a mask function superior to, for example, the mask processing in the mask camera (for example, the user described in the first embodiment, The edited video obtained by performing mask processing in a region excluding the non-target region for mask processing based on the operation) can be obtained, and the video suitable for the user's needs can be confirmed.
また、クライアントPC10は、マスクカメラにより撮像されている現在の撮像映像(ライブ映像)に対するマスク処理の不実行が設定されている場合に、撮像映像をそのままモニタDPに表示する。これにより、ユーザは、例えばイベントの条件や制約によって、現在のライブ映像をそのまま閲覧する必要がある場合に、現在のライブ映像を確認することができ、ユーザのニーズに適合した映像を確認させることができる。 Further, the client PC 10 displays the captured image as it is on the monitor DP when the non-execution of the mask process for the current captured image (live image) captured by the mask camera is set. This allows the user to check the current live video when it is necessary to view the current live video as it is due to, for example, event conditions or restrictions, and to check the video that meets the user's needs. Can do.
(第5の実施形態の内容に至る第1の経緯)
特許文献1によれば、監視エリアにおいて検知された人物の動画映像内の位置情報及び人物の属性(例えば性別、年齢)毎にマスク画像が生成されるため、そのマスク画像により、プライバシーを確保した上で店舗内の人物の行動が把握可能となる。
(First process leading to the contents of the fifth embodiment)
According to Patent Document 1, since a mask image is generated for each position information and person attribute (for example, gender, age) in a moving image of a person detected in a monitoring area, privacy is ensured by the mask image. The behavior of the person in the store can be grasped above.
しかしながら、特許文献1では、動画映像において検知された人物の画像領域をマスク画像に変更するのはカメラであり、カメラからの動画映像を受信する受信装置(例えばユーザが使用するクライアントPC)によりマスク処理が行われることは考慮されていない。また、既設の監視カメラには、特許文献1のマスク処理を実行可能な機能(マスク機能)を有していないものが少なくない。 However, in Patent Document 1, it is a camera that changes the image area of a person detected in a moving image to a mask image, and the mask is set by a receiving device (for example, a client PC used by a user) that receives the moving image from the camera. It is not taken into account that processing is performed. Many existing surveillance cameras do not have a function (mask function) capable of executing the mask processing of Patent Document 1.
ここで、例えばユーザの監視業務の中で、監視エリアに複数の監視カメラが設置され、かつそれぞれの監視カメラから配信されている最新の撮像映像を受信したクライアントPCのモニタにおいて、ユーザ操作により、それぞれの撮像映像が順に切り替えて表示されることを想定する。クライアントPCは、監視カメラの撮像映像の表示を切り替える度に、選択された監視カメラの撮像映像に対してマスク処理を行うため、マスク処理における初期学習(後述参照)において撮像映像中の背景画像(つまり、撮像映像中で動きの無い静止領域からなる画像領域)を生成する必要がある。しかしながら、この初期学習の処理中は、撮像映像中の背景画像の生成が完了していないためにクライアントPCは撮像映像の表示をできず、撮像映像の表示ができない期間(例えば30秒〜1分程度)が発生するという課題がある(図30参照)。図30は、マスクカメラ方式とクライアントPC方式とにおける、表示対象となるカメラのライブ映像の切り替えに伴う表示時の課題の説明図である。 Here, for example, in the user's monitoring work, a plurality of monitoring cameras are installed in the monitoring area, and the monitor of the client PC that has received the latest captured video distributed from each monitoring camera, by user operation, It is assumed that the respective captured images are switched and displayed in order. Each time the client PC switches the display of the captured video of the surveillance camera, the client PC performs a mask process on the captured video of the selected surveillance camera. Therefore, in the initial learning (see below) in the mask process, the background image ( In other words, it is necessary to generate an image region (a still region having no motion in the captured image). However, during the initial learning process, since the generation of the background image in the captured video is not completed, the client PC cannot display the captured video and cannot display the captured video (for example, 30 seconds to 1 minute). There is a problem that the degree of occurrence occurs (see FIG. 30). FIG. 30 is an explanatory diagram of a display problem associated with switching of a live video of a camera to be displayed in the mask camera system and the client PC system.
ここで、図30を参照して、上述した課題をより具体的に説明する。 Here, the above-described problem will be described more specifically with reference to FIG.
マスクカメラ方式(詳細は図28参照)では、それぞれのマスクカメラ(つまり、マスク機能を有するそれぞれのカメラA,B)において撮像映像に対してマスク処理が行われる。つまり、カメラAにより生成された編集映像BB1中の移動体(例えば人物)の画像部分はマスク画像に置き換えられ、カメラBにより生成された編集映像CC1中の移動体(例えば人物)の画像部分はマスク画像に置き換えられている。ここで、カメラAから配信された編集映像BB1がモニタに表示されている状態で、クライアントPCのユーザ操作によって、モニタに表示される映像の配信元がカメラAからカメラBに切り替えられた場合、クライアントPCは、カメラBにより生成された編集映像CC1をすぐに表示することが可能である。 In the mask camera system (see FIG. 28 for details), mask processing is performed on the captured image in each mask camera (that is, each camera A and B having a mask function). That is, the image part of the moving body (for example, a person) in the edited video BB1 generated by the camera A is replaced with the mask image, and the image part of the moving body (for example, the person) in the edited video CC1 generated by the camera B is It has been replaced with a mask image. Here, in a state where the edited video BB1 distributed from the camera A is displayed on the monitor, when the distribution source of the video displayed on the monitor is switched from the camera A to the camera B by the user operation of the client PC, The client PC can immediately display the edited video CC1 generated by the camera B.
一方、クライアントPC方式(詳細は図29参照)では、例えばカメラA,Bはマスク機能を有さず、カメラA,Bから配信された撮像映像に対してクライアントPCにおいてマスク処理が行われる。つまり、カメラAから配信された撮像映像がクライアントPCによってマスク処理されて編集映像BB1が生成され、カメラBから配信された撮像映像がクライアントPCによってマスク処理されて編集映像CC1が生成される。ここで、カメラAから配信された撮像映像に基づいてクライアントPCにより生成された編集映像BB1がモニタに表示されている状態で、クライアントPCのユーザ操作によって、モニタに表示される映像の配信元がカメラAからカメラBに切り替えられた場合、クライアントPCは、カメラBから配信された撮像映像にマスク処理を行う際、背景画像を生成するために初期学習を行う必要がある。この初期学習は例えば30秒〜1分程度であるが、この初期学習の期間、クライアントPCはカメラBから配信された撮像映像をマスク処理した結果の編集映像CC1を表示できない。言い換えると、クライアントPCは、カメラAからカメラBへの切り替えがあっても、カメラBから配信された撮像映像をマスク処理した結果の編集映像CC1をすぐに表示できない。 On the other hand, in the client PC system (refer to FIG. 29 for details), for example, the cameras A and B do not have a mask function, and the captured image distributed from the cameras A and B is masked in the client PC. That is, the captured video distributed from the camera A is masked by the client PC to generate the edited video BB1, and the captured video distributed from the camera B is masked by the client PC to generate the edited video CC1. Here, in a state where the edited video BB1 generated by the client PC based on the captured video distributed from the camera A is displayed on the monitor, the distribution source of the video displayed on the monitor by the user operation of the client PC is When the camera A is switched to the camera B, the client PC needs to perform initial learning to generate a background image when masking the captured video distributed from the camera B. This initial learning is, for example, about 30 seconds to 1 minute. During this initial learning period, the client PC cannot display the edited video CC1 as a result of masking the captured video distributed from the camera B. In other words, even if the camera PC is switched from the camera A to the camera B, the client PC cannot immediately display the edited video CC1 as a result of masking the captured video delivered from the camera B.
監視カメラの撮像映像の表示を切り替える度に、クライアントPCにおける初期学習の処理を仮に省略した場合、クライアントPCにおいて適正な背景画像が生成されないことになる。このため、クライアントPCがマスク処理において移動体(例えば人物)の検知を正しくできず、マスク処理後の編集映像内の人物がマスク画像に置き換えて表示されずにそのまま表示されてしまい、その人物のプライバシーが的確に保護されないという可能性がある。 If the initial learning process in the client PC is omitted every time the display of the captured video of the monitoring camera is switched, an appropriate background image is not generated in the client PC. For this reason, the client PC cannot correctly detect the moving object (for example, a person) in the mask process, and the person in the edited video after the mask process is displayed without being replaced with the mask image. There is a possibility that privacy is not protected properly.
そこで、第5の実施形態の第1映像表示方式〜第4映像表示方式(後述参照)では、モニタへの表示対象となる監視カメラの撮像映像の切り替えがあっても、選択された撮像映像の非表示を抑制した上でマスク処理を適切に施し、ユーザの監視業務の効率やマーケティング分析精度の向上を図るモニタリングシステム及び映像表示方法の例を説明する。 Therefore, in the first video display method to the fourth video display method (see later) of the fifth embodiment, even if there is a switching of the captured video of the surveillance camera to be displayed on the monitor, the selected captured video An example of a monitoring system and an image display method for suppressing masking and appropriately performing mask processing to improve the efficiency of user monitoring work and the accuracy of marketing analysis will be described.
(第5の実施形態)
第5の実施形態のモニタリングシステムとして、第1の実施形態で説明した監視カメラシステム100を例示して説明する。第5の実施形態の監視カメラシステム100の内部構成は第1の実施形態の監視カメラシステム100に対し、更にサーバPC30を含む構成である(図27参照)。サーバPC30以外の各装置の構成は第1の実施形態の監視カメラシステム100と同一であるため、同一の内容の説明は簡略化又は省略し、異なる内容について説明する。
(Fifth embodiment)
The monitoring camera system 100 described in the first embodiment will be described as an example of the monitoring system of the fifth embodiment. The internal configuration of the monitoring camera system 100 of the fifth embodiment is a configuration that further includes a server PC 30 with respect to the monitoring camera system 100 of the first embodiment (see FIG. 27). Since the configuration of each device other than the server PC 30 is the same as that of the surveillance camera system 100 of the first embodiment, the description of the same contents is simplified or omitted, and different contents will be described.
図27は、各実施形態の監視カメラシステム100のシステム構成の他の一例を示す図である。図27に示す監視カメラシステム100では、図1に示す監視カメラシステム100に対し、サーバPC30が追加されている。サーバPC30は、ネットワークNWに接続されている。また、サーバPC30は、ネットワークNWを介して、クライアントPC10、レコーダREC1,REC4とも接続されている。また、サーバPC30は、ネットワークNW及び各ルータを介して各種のカメラとも接続されている。サーバPC30の具体的な内部構成については、図40を参照して後述する。 FIG. 27 is a diagram illustrating another example of the system configuration of the monitoring camera system 100 of each embodiment. In the surveillance camera system 100 shown in FIG. 27, a server PC 30 is added to the surveillance camera system 100 shown in FIG. The server PC 30 is connected to the network NW. The server PC 30 is also connected to the client PC 10 and the recorders REC1 and REC4 via the network NW. The server PC 30 is also connected to various cameras via the network NW and each router. A specific internal configuration of the server PC 30 will be described later with reference to FIG.
ここで、上述したマスクカメラ方式とクライアントPC方式の詳細について、図28及び図29を参照して説明する。図28は、固定カメラCAM14がマスク機能を有する場合にマスク処理後の編集映像BB1がクライアントPC10のモニタDPに表示される手順を時系列に説明する模式図である。図29は、クライアントPC10がマスク機能を有する場合にマスク処理後の編集映像BB1がクライアントPC10のモニタDPに表示される手順を時系列に説明する模式図である。ここでは、カメラとして固定カメラCAM14を例示して説明するが、マスクカメラ方式及びクライアントPC方式を固定カメラCAM14に限らず、他のカメラにも同様に適用可能であることは言うまでもない。 Here, details of the above-described mask camera system and client PC system will be described with reference to FIGS. FIG. 28 is a schematic diagram illustrating, in time series, a procedure in which the edited video BB1 after the mask process is displayed on the monitor DP of the client PC 10 when the fixed camera CAM 14 has a mask function. FIG. 29 is a schematic diagram illustrating, in time series, a procedure in which the edited video BB1 after the mask process is displayed on the monitor DP of the client PC 10 when the client PC 10 has a mask function. Here, the fixed camera CAM 14 is described as an example of the camera, but it goes without saying that the mask camera method and the client PC method are not limited to the fixed camera CAM 14 and can be applied to other cameras as well.
図28に示すマスクカメラ方式では、固定カメラCAM14がマスク機能を有するマスクカメラであって、かつマスク処理の実行(ON)が設定されている場合、固定カメラCAM14は、マスク処理によって、撮像映像AA1に現れる移動体(例えば人物)の動体領域OB1をマスク画像MSK1に置き換えて編集映像BB1を得る。固定カメラCAM14は、編集映像BB1をクライアントPC10に配信(送信)する。クライアントPC10は、固定カメラCAM14から配信された編集映像BB1をモニタDPに表示する。つまり、撮像映像AA1中の人物は、固定カメラCAM14からクライアントPC10に配信される前に、マスクカメラとしての固定カメラCAM14のマスク処理によってマスク画像に置き換えられる。 In the mask camera system shown in FIG. 28, when the fixed camera CAM14 is a mask camera having a mask function and the execution (ON) of the mask process is set, the fixed camera CAM14 performs the captured video AA1 by the mask process. The moving body region OB1 of the moving body (for example, a person) appearing at is replaced with the mask image MSK1 to obtain the edited video BB1. The fixed camera CAM 14 distributes (transmits) the edited video BB1 to the client PC 10. The client PC 10 displays the edited video BB1 distributed from the fixed camera CAM14 on the monitor DP. That is, the person in the captured video AA1 is replaced with a mask image by mask processing of the fixed camera CAM14 as a mask camera before being distributed from the fixed camera CAM14 to the client PC 10.
図29に示すクライアントPC方式では、固定カメラCAM14がマスク機能を有さない場合、又はマスク機能を有するがマスク処理の不実行(OFF)が設定されている場合、固定カメラCAM14は、撮像映像AA1に現れる移動体(例えば人物)の動体領域OB1をマスク画像MSK1に置き換えるためのマスク処理を実行せず、撮像映像AA1をそのままクライアントPC10に配信(送信)する。クライアントPC10は、固定カメラCAM14から配信された撮像映像AA1に対してマスク処理を行い、撮像映像AA1に現れる移動体(例えば人物)の動体領域OB1をマスク画像MSK1に置き換えた編集映像BB1を生成してモニタDPに表示する。つまり、撮像映像AA1中の人物は、固定カメラCAM14からクライアントPC10に配信された後、クライアントPC10のマスク処理によってマスク画像に置き換えられる。 In the client PC system shown in FIG. 29, when the fixed camera CAM 14 does not have a mask function, or has a mask function but non-execution (OFF) of mask processing is set, the fixed camera CAM 14 captures the captured video AA1. The captured image AA1 is distributed (transmitted) to the client PC 10 as it is without performing the mask process for replacing the moving object region OB1 of the moving object (for example, a person) appearing in FIG. The client PC 10 performs a mask process on the captured video AA1 distributed from the fixed camera CAM14, and generates an edited video BB1 in which the moving object area OB1 of the moving object (for example, a person) appearing in the captured video AA1 is replaced with the mask image MSK1. Displayed on the monitor DP. That is, the person in the captured video AA1 is distributed from the fixed camera CAM14 to the client PC 10, and then replaced with a mask image by the masking process of the client PC 10.
図31は、第5の実施形態の動作概要の一例の説明図である。以下の説明において、図27に示す全方位カメラCAM11,CAM31、PTZカメラCAM12,CAM13,CAM21,CAM32,CAM33、固定カメラCAM14,CAM22,CAM34の中で2つの異なるカメラを例示する際に、「カメラA」、「カメラB」という。第5の実施形態では、クライアントPC10は、カメラAから配信された撮像映像をマスク処理して生成した編集映像BB1をモニタDPに表示している状態で、モニタDPに表示される映像の配信元がカメラAからカメラBに切り替えられた場合、カメラAの編集映像BB1の背景画像BG1を情報蓄積部の一例としてのストレージ15に保存し、更に、前回使用時のカメラBの編集映像CC1の背景画像BG2をストレージ15から取得する。クライアントPC10は、この取得した背景画像BG2を用いてマスク処理を行うことで、初期学習(図11のステップS11参照)を行うことなく、マスク処理後の編集映像CC1を表示することができる。なお、情報蓄積部は、編集映像BB1の背景画像が保存され、上述したストレージ15の他に、例えば後述するサーバPC30、RAM162、SDカード、ネットワークNWを介して接続されたクラウドコンピュータ(不図示)等でも構わない。 FIG. 31 is an explanatory diagram of an example of an operation outline of the fifth embodiment. In the following description, when two different cameras are illustrated in the omnidirectional cameras CAM11 and CAM31, PTZ cameras CAM12 and CAM13, CAM21, CAM32, and CAM33, and fixed cameras CAM14, CAM22, and CAM34 illustrated in FIG. A ”and“ Camera B ”. In the fifth embodiment, the client PC 10 distributes the video displayed on the monitor DP while displaying the edited video BB1 generated by masking the captured video distributed from the camera A on the monitor DP. Is switched from the camera A to the camera B, the background image BG1 of the edited video BB1 of the camera A is stored in the storage 15 as an example of the information storage unit, and the background of the edited video CC1 of the camera B at the previous use is stored. The image BG2 is acquired from the storage 15. The client PC 10 can display the edited video CC1 after the mask process without performing the initial learning (see step S11 in FIG. 11) by performing the mask process using the acquired background image BG2. The information storage unit stores a background image of the edited video BB1, and in addition to the storage 15 described above, for example, a cloud computer (not shown) connected via a server PC 30, RAM 162, an SD card, and a network NW, which will be described later. Etc.
(第1映像表示方式)
第1映像表示方式では、クライアントPC10は、モニタDPに表示される映像の配信元がカメラAからカメラBに切り替えられた時、カメラAの撮像映像もしくは編集映像の背景画像をストレージ15に保存(退避)し、次回カメラAに切り替えられた時に保存(退避)していた背景画像を用いてマスク処理を行う(図32及び図33参照)。
(First video display method)
In the first video display method, the client PC 10 saves the captured image of the camera A or the background image of the edited video in the storage 15 when the distribution source of the video displayed on the monitor DP is switched from the camera A to the camera B ( The mask process is performed using the background image saved (saved) when the camera A is switched to the next time (see FIGS. 32 and 33).
図32は、第5の実施形態における第1映像表示方式,第2映像表示方式の概要を示す模式図である。クライアントPC10は、プロセッサ11により実行されるメイン処理として、例えばカメラAから配信された撮像映像AA1を受信し、撮像映像AA1にマスク処理を行って得た編集映像BB1をモニタDPに表示する(S81)。ここで、モニタDPに表示される映像の配信元がカメラAからカメラBに切り替えられた場合、クライアントPC10は、カメラAの編集映像BB1の背景画像BG1をストレージ15に保存する(S82)。クライアントPC10は、次に表示するカメラBについて、前回使用時のカメラBの編集映像CC1の背景画像BG2をストレージ15から取得する(S83)。クライアントPC10は、ステップS83において取得した背景画像BG2を用いてマスク処理を行い、マスク処理後の編集映像CC1をモニタDPに表示する。 FIG. 32 is a schematic diagram illustrating an overview of the first video display method and the second video display method according to the fifth embodiment. As a main process executed by the processor 11, the client PC 10 receives, for example, the captured video AA1 distributed from the camera A, and displays the edited video BB1 obtained by performing mask processing on the captured video AA1 on the monitor DP (S81). ). When the distribution source of the video displayed on the monitor DP is switched from the camera A to the camera B, the client PC 10 saves the background image BG1 of the edited video BB1 of the camera A in the storage 15 (S82). The client PC 10 acquires the background image BG2 of the edited video CC1 of the camera B at the previous use from the storage 15 for the camera B to be displayed next (S83). The client PC 10 performs a mask process using the background image BG2 acquired in step S83, and displays the edited video CC1 after the mask process on the monitor DP.
図33は、第5の実施形態における第1映像表示方式の動作手順の一例を説明するフローチャートである。図33の説明の前提として、モニタDPに表示される映像の配信元としてのカメラは選択されていないとする。 FIG. 33 is a flowchart for explaining an example of the operation procedure of the first video display method in the fifth embodiment. As a premise of the description of FIG. 33, it is assumed that a camera as a distribution source of a video displayed on the monitor DP is not selected.
図33において、ユーザ操作により、モニタDPに表示される映像の配信元としてカメラAが選択されたとする(S91A)。クライアントPC10のプロセッサ11は、カメラAの撮像映像もしくは編集映像の背景画像をストレージ15に保存しているか否かを判断する(S92A)。プロセッサ11は、カメラAの撮像映像の背景画像も編集映像の背景画像もストレージ15に保存していないと判断した場合には(S92A、NO)、カメラAの撮像映像を用いて初期学習(図11のステップS11参照)を実行する(S93A)。これにより、プロセッサ11は、カメラAの撮像画像の背景画像を生成できる。ステップS93Aの後、プロセッサ11の処理はステップS95Aに進む。 In FIG. 33, it is assumed that the camera A is selected as a distribution source of the video displayed on the monitor DP by a user operation (S91A). The processor 11 of the client PC 10 determines whether or not the background image of the image captured by the camera A or the edited image is stored in the storage 15 (S92A). When the processor 11 determines that neither the background image of the captured image of the camera A nor the background image of the edited image is stored in the storage 15 (S92A, NO), the processor 11 performs initial learning using the captured image of the camera A (FIG. 11 (see step S11) (S93A). Thereby, the processor 11 can generate a background image of the captured image of the camera A. After step S93A, the process of the processor 11 proceeds to step S95A.
一方、プロセッサ11は、カメラAの撮像映像もしくは編集映像の背景画像をストレージ15に保存していると判断した場合には(S92A、YES)、カメラAの撮像映像もしくは編集映像の背景画像をストレージ15から取得する(S94A)。ステップS94Aの後、プロセッサ11の処理はステップS95Aに進む。 On the other hand, when the processor 11 determines that the background image of the camera A captured image or edited video is stored in the storage 15 (S92A, YES), the processor 11 stores the camera A captured image or edited video background image. 15 (S94A). After step S94A, the process of the processor 11 proceeds to step S95A.
プロセッサ11は、ステップS93A又はステップS94Aの後、カメラAから配信されている撮像映像と、ステップS93Aにおいて生成した背景画像又はステップS94Aにおいて取得した背景画像とを用いてマスク処理を行い、マスク処理後の編集映像をモニタDPに表示する(S95A)。 After step S93A or step S94A, the processor 11 performs mask processing using the captured video distributed from the camera A and the background image generated in step S93A or the background image acquired in step S94A. Is displayed on the monitor DP (S95A).
ここで、例えばモニタDPに表示される映像の配信元がカメラAからカメラBに切り替えられたとする(S91B)。プロセッサ11は、カメラAの編集映像の背景画像をストレージ15に保存する(S96B)。 Here, for example, it is assumed that the distribution source of the video displayed on the monitor DP is switched from the camera A to the camera B (S91B). The processor 11 stores the background image of the edited video of the camera A in the storage 15 (S96B).
プロセッサ11は、カメラBの撮像映像もしくは編集映像の背景画像をストレージ15に保存しているか否かを判断する(S92B)。プロセッサ11は、カメラBの撮像映像の背景画像も編集映像の背景画像もストレージ15に保存していないと判断した場合には(S92B、NO)、カメラBの撮像映像を用いて初期学習(図11のステップS11参照)を実行する(S93B)。これにより、プロセッサ11は、カメラBの撮像画像の背景画像を生成できる。ステップS93Bの後、プロセッサ11の処理はステップS95Bに進む。 The processor 11 determines whether or not the background image of the captured video or edited video of the camera B is stored in the storage 15 (S92B). If the processor 11 determines that neither the background image of the captured image of the camera B nor the background image of the edited image is stored in the storage 15 (S92B, NO), the processor 11 performs initial learning using the captured image of the camera B (FIG. 11 (see step S11) (S93B). Thereby, the processor 11 can generate a background image of the captured image of the camera B. After step S93B, the process of the processor 11 proceeds to step S95B.
一方、プロセッサ11は、カメラBの撮像映像もしくは編集映像の背景画像をストレージ15に保存していると判断した場合には(S92B、YES)、カメラBの撮像映像もしくは編集映像の背景画像をストレージ15から取得する(S94B)。ステップS94Bの後、プロセッサ11の処理はステップS95Bに進む。 On the other hand, when the processor 11 determines that the background image of the captured image or edited video of the camera B is stored in the storage 15 (S92B, YES), the processor 11 stores the background image of the captured image or edited video of the camera B. 15 (S94B). After step S94B, the process of the processor 11 proceeds to step S95B.
プロセッサ11は、ステップS93B又はステップS94Bの後、カメラBから配信されている撮像映像と、ステップS93Bにおいて生成した背景画像又はステップS94Bにおいて取得した背景画像とを用いてマスク処理を行い、マスク処理後の編集映像をモニタDPに表示する(S95B)。 After step S93B or step S94B, the processor 11 performs mask processing using the captured video delivered from the camera B and the background image generated in step S93B or the background image acquired in step S94B. Is displayed on the monitor DP (S95B).
ここで、例えばモニタDPに表示される映像の配信元がカメラBから再びカメラAに切り替えられたとする。なお、カメラAではなく、他のカメラに切り替えられても構わない。例えば再びカメラAに切り替えられた場合、プロセッサ11は、切替前に使用していたカメラBの編集映像の背景画像をストレージ15に保存する(S96A)。ステップS96Aの後、ステップS92A→ステップS94A→ステップS95Aの処理が同様に繰り返される。更に、この後、ユーザ操作によりカメラの切替操作がある度に、切替対象として選択されたカメラに対し、例えば「ステップS91B→ステップS96B(切替前に使用していた背景画像のストレージへの保存)→ステップS92B→ステップS94B又はステップS93B→ステップS95B」を一つの単位とした処理が繰り返して実行される。 Here, for example, it is assumed that the distribution source of the video displayed on the monitor DP is switched from the camera B to the camera A again. Note that the camera A may be switched to another camera instead of the camera A. For example, when the camera A is switched again, the processor 11 stores the background image of the edited video of the camera B used before the switching in the storage 15 (S96A). After step S96A, the process of step S92A → step S94A → step S95A is similarly repeated. Further, each time there is a camera switching operation by a user operation, for example, “step S91B → step S96B (save background image used before switching to storage) for the camera selected as the switching target. → Step S92B → Step S94B or Step S93B → Step S95B ”is repeatedly executed as a unit.
第1映像表示方式によれば、クライアントPC10は、カメラの映像を切り替えてモニタDPに表示する場合に、選択されたカメラの前回使用していた撮像映像もしくは編集映像の背景画像をストレージ15から取得してマスク処理できるので、切替によって選択されたカメラから配信されている撮像映像の背景画像を初期学習によって生成する必要が無い。つまり、クライアントPC10は、カメラAからカメラBに切り替えられた場合に、カメラBから配信されている撮像映像の背景画像を生成する期間、映像の非表示を抑制でき、ユーザの監視業務の効率アップやマーケティング分析精度の向上を支援することができる。第1映像表示方式は、例えば室内環境により、モニタDPに表示される映像の内容が日時により変化し辛い場合には特に有効となる。映像の内容が日時により変化し辛い場合は、例えば屋外からの日光による影響が少ない場合、工場内など機器の移動が発生しにくい場合が該当する。言い換えると、第1映像表示方式は、カメラから配信されている撮像映像の背景画像(つまり、静止領域)が大きく変化することが無い環境の場合に特に有効となる。 According to the first video display method, the client PC 10 acquires from the storage 15 the background image of the captured video or edited video that was previously used by the selected camera when the video of the camera is switched and displayed on the monitor DP. Therefore, it is not necessary to generate a background image of the captured video distributed from the camera selected by switching by initial learning. That is, when the camera PC 10 is switched from the camera A to the camera B, the client PC 10 can suppress the non-display of the video during the period of generating the background image of the captured video distributed from the camera B, thereby improving the efficiency of the user's monitoring work. And can improve the accuracy of marketing analysis. The first video display method is particularly effective when the content of the video displayed on the monitor DP is difficult to change depending on the date and time due to, for example, the indoor environment. When the content of the video is difficult to change depending on the date and time, for example, when the influence of sunlight from the outside is small, or when the movement of the device is difficult to occur such as in a factory. In other words, the first video display method is particularly effective in an environment where the background image (that is, the still region) of the captured video delivered from the camera does not change significantly.
(第2映像表示方式)
第2映像表示方式では、クライアントPC10は、モニタDPに表示される映像の配信元がカメラAからカメラBに切り替えられた時、カメラBの撮像映像又は編集映像を前回表示した時(言い換えると、撮像映像もしくは編集映像の背景画像の生成時点)からの経過時間が既定値(設定値)より短い場合にのみ、カメラBの前回使用した背景画像をストレージ15から取得してマスク処理を行う(図32及び図34参照)。
(Second video display method)
In the second video display method, the client PC 10 is the time when the distribution source of the video displayed on the monitor DP has been switched from the camera A to the camera B, and when the captured image or edited video of the camera B was previously displayed (in other words, Only when the elapsed time from the time when the background image of the captured image or edited image is generated is shorter than the default value (set value), the background image used last time of the camera B is acquired from the storage 15 and mask processing is performed (FIG. 32 and FIG. 34).
図32において、クライアントPC10は、ステップS82の後、切替により選択されたカメラ(例えばカメラB)の前回の撮像映像又は編集映像の表示時からの経過時間と既定値(設定値)とを比較する(S84)。上述したように、クライアントPC10は、切替により選択されたカメラ(例えばカメラB)の前回の撮像映像又は編集映像の表示時からの経過時間が既定値(設定値)より短い場合にのみ、カメラBの前回使用した背景画像をストレージ15から取得してマスク処理を行う。 In FIG. 32, after step S82, the client PC 10 compares the elapsed time from the previous display time of the captured video or edited video of the camera (for example, camera B) selected by switching with a predetermined value (set value). (S84). As described above, the client PC 10 performs the camera B only when the elapsed time from the previous display of the captured image or edited image of the camera selected by switching (for example, the camera B) is shorter than the default value (set value). The previously used background image is acquired from the storage 15 and masked.
図34は、第5の実施形態における第2映像表示方式の動作手順の一例を説明するフローチャートである。図34の説明において、図33と重複する処理については同一のステップ番号を付与して説明を簡略化又は省略し、異なる内容について説明する。 FIG. 34 is a flowchart for explaining an example of the operation procedure of the second video display method in the fifth embodiment. In the description of FIG. 34, the same steps as those in FIG. 33 are assigned the same step numbers, and the description is simplified or omitted, and different contents will be described.
図34において、プロセッサ11は、カメラAの撮像映像もしくは編集映像の背景画像をストレージ15に保存していると判断した場合には(S92A、YES)、カメラAの撮像映像又は編集映像の前回の表示時からの経過時間と既定値(設定値)とを比較する(S97A)。プロセッサ11は、カメラAの撮像映像又は編集映像の前回の表示時からの経過時間が既定値(設定値)より長いと判断した場合には(S97A、YES)、カメラAから配信されている撮像映像を用いて初期学習(図11のステップS11参照)を実行する(S93A)。 In FIG. 34, when the processor 11 determines that the background image of the captured image or edited video of the camera A is stored in the storage 15 (S92A, YES), the processor 11 captures the previous captured image or edited video of the camera A. The elapsed time from the display time is compared with a predetermined value (set value) (S97A). When the processor 11 determines that the elapsed time from the previous display time of the captured image or edited image of the camera A is longer than the predetermined value (set value) (S97A, YES), the image captured from the camera A is captured. Initial learning (see step S11 in FIG. 11) is performed using the video (S93A).
一方、プロセッサ11は、カメラAの撮像映像又は編集映像の前回の表示時からの経過時間が既定値(設定値)より短いと判断した場合には(S97A、NO)、カメラAの撮像映像もしくは編集映像の背景画像をストレージ15から取得する(S94A)。カメラBが選択された場合についてもステップS97Aの処理と同様であるため、カメラBが選択された場合のステップS97Bに関する説明は省略する。 On the other hand, when the processor 11 determines that the elapsed time from the previous display time of the captured image of the camera A or the edited image is shorter than the predetermined value (set value) (S97A, NO), the captured image of the camera A or The background image of the edited video is acquired from the storage 15 (S94A). The case where the camera B is selected is the same as the process of step S97A, and thus the description regarding step S97B when the camera B is selected is omitted.
第2映像表示方式によれば、クライアントPC10は、例えば前回にカメラBの撮像映像又は編集映像を表示してから上述した既定値として例えば30分以内であれば、背景画像が大きく変わることが無いとの前提に基づいて、前回使用時の背景画像をストレージ15から取得してマスク処理の際に使用する。監視対象となる撮像エリアに多くの監視用途のカメラが設置されているような状況では、クライアントPC10は、一定時間毎にカメラの撮像映像又は編集映像を順次切り替えて表示することが多い。また、カメラの撮像位置における環境の変化(例えば人物の移動、新しい物品が配置される)が多い場所では、背景画像が短い期間に変化することがある。このような状況では、第2映像表示方式は特に有効となる。 According to the second video display method, for example, the client PC 10 does not significantly change the background image within a period of, for example, 30 minutes after the previously displayed captured video or edited video of the camera B, for example, within 30 minutes. Based on the premise of the above, a background image at the time of previous use is acquired from the storage 15 and used for mask processing. In a situation where many surveillance cameras are installed in the imaging area to be monitored, the client PC 10 often switches and displays the captured video or edited video of the camera at regular intervals. In addition, the background image may change in a short period in a place where there are many changes in the environment at the imaging position of the camera (for example, movement of a person, placement of a new article). In such a situation, the second video display method is particularly effective.
図35及び図36は、第5の実施形態における第1映像表示方式,第2映像表示方式の動作手順の一例を説明するシーケンス図である。 FIG. 35 and FIG. 36 are sequence diagrams for explaining an example of the operation procedure of the first video display method and the second video display method in the fifth embodiment.
図35において、操作部13を用いたユーザ操作により、カメラAの撮像映像の表示要求がなされたとする(S101)。プロセッサ11は、この表示要求に従い、カメラAの背景画像をストレージ15に要求するが(S102)、ストレージ15から該当する背景画像が無い旨の応答を受けたとする(S103)。なお、ステップS102及びステップS103の処理として、プロセッサ11がステップS101の表示要求に従い、ストレージ15においてカメラAの背景画像を探索したが見つからなかったことを判断する処理と置き換えても構わない。 In FIG. 35, it is assumed that a display request for a captured image of camera A is made by a user operation using the operation unit 13 (S101). The processor 11 requests the background image of the camera A from the storage 15 in accordance with this display request (S102), but receives a response from the storage 15 that there is no corresponding background image (S103). Note that the processing in steps S102 and S103 may be replaced with processing in which the processor 11 searches for the background image of the camera A in the storage 15 in accordance with the display request in step S101, but determines that it has not been found.
プロセッサ11は、カメラAの撮像映像の配信要求を、通信部12を介してカメラAに対して送信する(S104)。これにより、カメラAは、ステップS109においてプロセッサ11から配信停止要求を受信するまで、撮像により得た撮像映像(ライブ映像)をクライアントPC10に配信(送信)する(S105)。プロセッサ11は、カメラAから配信された撮像映像を受信する。 The processor 11 transmits a distribution request for the captured image of the camera A to the camera A via the communication unit 12 (S104). Thereby, the camera A distributes (transmits) the captured video (live video) obtained by the imaging to the client PC 10 until a distribution stop request is received from the processor 11 in step S109 (S105). The processor 11 receives the captured video distributed from the camera A.
プロセッサ11は、カメラAの背景画像を生成するために、カメラAから配信された撮像映像を用いて、初期学習(図11のステップS11参照)を実行する(S106)。更に、プロセッサ11は、ステップS106の初期学習を実行した後、カメラAの撮像映像をマスク処理し、マスク処理により得た編集映像をモニタDPに表示する(S107)。 In order to generate the background image of the camera A, the processor 11 performs initial learning (see step S11 in FIG. 11) using the captured video distributed from the camera A (S106). Furthermore, after executing the initial learning in step S106, the processor 11 performs mask processing on the captured image of the camera A, and displays the edited image obtained by the mask processing on the monitor DP (S107).
ここで、操作部13を用いたユーザ操作により、カメラBの撮像映像の表示要求がなされたとする(S108)。プロセッサ11は、この表示要求に従い、カメラAの撮像映像の配信停止要求を送信する(S109)。これにより、カメラAは、撮像映像の配信を停止する。 Here, it is assumed that a display request for the captured image of the camera B is made by a user operation using the operation unit 13 (S108). In accordance with this display request, the processor 11 transmits a request to stop the distribution of the captured image of the camera A (S109). Thereby, the camera A stops the delivery of the captured video.
プロセッサ11は、カメラAの編集映像の表示時に使用していた背景画像をストレージ15に保存(退避)する(S110)。更に、プロセッサ11は、カメラBの背景画像をストレージ15に要求するが(S111)、ストレージ15から該当する背景画像が無い旨の応答を受けたとする(S112)。なお、ステップS111及びステップS112の処理として、プロセッサ11がステップS108の表示要求に従い、ストレージ15においてカメラBの背景画像を探索したが見つからなかったことを判断する処理と置き換えても構わない。 The processor 11 saves (saves) the background image used when the edited video of the camera A is displayed in the storage 15 (S110). Furthermore, it is assumed that the processor 11 requests the background image of the camera B from the storage 15 (S111), but receives a response from the storage 15 that there is no corresponding background image (S112). Note that the processing in step S111 and step S112 may be replaced with processing in which the processor 11 searches for the background image of the camera B in the storage 15 according to the display request in step S108, but determines that it has not been found.
プロセッサ11は、カメラBの撮像映像の配信要求を、通信部12を介してカメラBに対して送信する(S113)。これにより、カメラBは、ステップS115においてプロセッサ11から配信停止要求を受信するまで、撮像により得た撮像映像(ライブ映像)をクライアントPC10に配信(送信)する(S114)。プロセッサ11は、カメラAから配信された撮像映像を受信する。 The processor 11 transmits a distribution request for the captured image of the camera B to the camera B via the communication unit 12 (S113). Thereby, the camera B distributes (transmits) the captured video (live video) obtained by the imaging to the client PC 10 until a distribution stop request is received from the processor 11 in step S115 (S114). The processor 11 receives the captured video distributed from the camera A.
プロセッサ11は、カメラBの背景画像を生成するために、カメラBから配信された撮像映像を用いて、初期学習(図11のステップS11参照)を実行する(S106)。更に、プロセッサ11は、ステップS106の初期学習を実行した後、カメラBの撮像映像をマスク処理し、マスク処理により得た編集映像をモニタDPに表示する(S107)。 In order to generate the background image of the camera B, the processor 11 performs initial learning (see step S11 in FIG. 11) using the captured video distributed from the camera B (S106). Further, after executing the initial learning in step S106, the processor 11 performs mask processing on the captured image of the camera B, and displays the edited image obtained by the mask processing on the monitor DP (S107).
ここで、操作部13を用いたユーザ操作により、カメラAの撮像映像の表示要求が再度なされたとする(S101)。プロセッサ11は、この表示要求に従い、カメラBの撮像映像の配信停止要求を送信する(S115)。これにより、カメラBは、撮像映像の配信を停止する。 Here, it is assumed that the display request of the captured image of the camera A is made again by the user operation using the operation unit 13 (S101). In accordance with this display request, the processor 11 transmits a distribution stop request for the captured image of the camera B (S115). Thereby, the camera B stops the delivery of the captured video.
プロセッサ11は、カメラBの編集映像の表示時に使用していた背景画像をストレージ15に保存(退避)する(S110)。更に、プロセッサ11は、カメラAの背景画像をストレージ15に要求し(S102)、ストレージ15から該当する背景画像の応答を受けたとする(S103A)。なお、ステップS102及びステップS103Aの処理として、プロセッサ11がステップS101の表示要求に従い、ストレージ15においてカメラAの背景画像を探索して取得した処理と置き換えても構わない。 The processor 11 saves (saves) the background image used when the edited video of the camera B is displayed in the storage 15 (S110). Furthermore, the processor 11 requests the background image of the camera A from the storage 15 (S102), and receives a response of the corresponding background image from the storage 15 (S103A). Note that the processing in step S102 and step S103A may be replaced with processing that the processor 11 searches for and acquires the background image of the camera A in the storage 15 in accordance with the display request in step S101.
プロセッサ11は、カメラAの撮像映像の配信要求を、通信部12を介してカメラAに対して送信する(S104)。これにより、カメラAは、上述したステップS115においてプロセッサ11から配信停止要求を受信するまで、撮像により得た撮像映像(ライブ映像)をクライアントPC10に配信(送信)する(S105)。プロセッサ11は、カメラAから配信された撮像映像を受信する。 The processor 11 transmits a distribution request for the captured image of the camera A to the camera A via the communication unit 12 (S104). Thereby, the camera A distributes (transmits) the captured video (live video) obtained by the imaging to the client PC 10 until the distribution stop request is received from the processor 11 in step S115 described above (S105). The processor 11 receives the captured video distributed from the camera A.
プロセッサ11は、カメラBの背景画像を生成するための初期学習を行う必要が無く、ステップS103Aにおいて取得したカメラBの撮像映像とカメラAから配信されている撮像映像とを用いて、撮像映像をマスク処理し、マスク処理により得た編集映像をモニタDPに表示する(S107A)。ステップS107A以降の処理は、カメラの切替がある度に、同様の処理(つまり、前回使用した背景画像を用いてマスク処理がなされる処理)が繰り返される。 The processor 11 does not need to perform initial learning for generating the background image of the camera B, and uses the captured image of the camera B acquired in step S103A and the captured video distributed from the camera A to obtain the captured video. Mask processing is performed, and the edited video obtained by the mask processing is displayed on the monitor DP (S107A). In the processing after step S107A, every time the camera is switched, the same processing (that is, processing in which mask processing is performed using the background image used last time) is repeated.
なお、第2映像表示方式では、ステップS115の後、例えば図34のステップS97Aの処理がプロセッサ11により行われる。プロセッサ11は、カメラAの撮像映像もしくは編集映像の背景画像をストレージ15に保存していると判断した場合に、カメラAの撮像映像又は編集映像の前回の表示時からの経過時間と既定値(設定値)とを比較する(S97A)。プロセッサ11は、カメラAの撮像映像又は編集映像の前回の表示時からの経過時間が既定値(設定値)より短いと判断した場合にのみ(S97A、NO)、カメラAの撮像映像もしくは編集映像の背景画像をストレージ15から取得する(S103A)。 In the second video display method, after step S115, for example, the process of step S97A in FIG. When the processor 11 determines that the background image of the captured image or edited video of the camera A is stored in the storage 15, the elapsed time from the previous display of the captured image or edited video of the camera A and a predetermined value ( (Set value) is compared (S97A). Only when the processor 11 determines that the elapsed time from the previous display time of the captured image or edited image of the camera A is shorter than the predetermined value (set value) (S97A, NO), the captured image or edited image of the camera A The background image is acquired from the storage 15 (S103A).
(第3映像表示方式)
第3映像表示方式では、クライアントPC10は、現在モニタDPに表示していないカメラの撮像映像もしくは編集映像の背景画像を、バックグラウンド処理によって常時更新する。クライアントPC10は、バックグラウンド処理によって更新された最新の背景画像とカメラから配信されている撮像映像とを用いて、メイン処理としてのマスク処理及びマスク処理後の編集映像をモニタDPに表示する(図37〜図39参照)。
(Third video display method)
In the third video display method, the client PC 10 constantly updates the background image of the captured video or edited video of the camera that is not currently displayed on the monitor DP by background processing. The client PC 10 displays the mask processing as the main processing and the edited video after the mask processing on the monitor DP using the latest background image updated by the background processing and the captured video distributed from the camera (FIG. 37-FIG. 39).
カメラから配信されている撮像映像又は編集映像を表示する間、例えば監視対象の状況を把握する必要があることから、一定値以上の表示フレームレート(1fps以上で例えば30fps)を用いた撮像映像又はマスク処理後の編集映像の表示が求められる。一方、現在モニタDPに表示していない他のカメラの撮像映像については背景画像が更新されれば良く、例えば10秒に1コマ(1フレーム)等の極めて低速な背景画像の更新処理でよい。また、このような低速で背景画像の更新処理を行ったとしても、そのカメラの撮像映像や編集映像の表示がされる訳では無いので端末操作者(例えばユーザ)に対する画面表示への影響(例えば表示の遅延)は無く、メイン処理となるマスク処理の性能(処理負荷等)に与える影響は軽微である。また、バックグラウンド処理により背景画像の更新処理(通常学習)を行った場合でも、クライアントPC10に対して必要となるリソースや性能はわずかであり、例えば「背景画像」×「カメラ数」の情報量の処理や保存が可能なリソースがあれば十分と言える。 While displaying the captured video or edited video distributed from the camera, for example, since it is necessary to grasp the status of the monitoring target, the captured video using a display frame rate (1 fps or higher, for example, 30 fps) of a certain value or higher. Display of edited video after mask processing is required. On the other hand, it is only necessary to update the background image for the captured image of the other camera that is not currently displayed on the monitor DP. For example, an extremely low-speed background image update process such as one frame (one frame) per 10 seconds may be used. Also, even if background image update processing is performed at such a low speed, the captured image or edited video of the camera is not displayed, so the effect on the screen display for the terminal operator (for example, the user) (for example, There is no display delay) and the influence on the performance (processing load, etc.) of the mask processing as the main processing is slight. Even when background image update processing (normal learning) is performed by background processing, the resources and performance required for the client PC 10 are very small. For example, the amount of information of “background image” × “number of cameras” It is sufficient if there are resources that can be processed and stored.
図37は、第5の実施形態における第3映像表示方式の概要を示す模式図である。クライアントPC10は、プロセッサ11により実行されるメイン処理として、例えばカメラAから配信された撮像映像AA1を受信し、撮像映像AA1にマスク処理を行って得た編集映像BB1をモニタDPに表示する(S81)。また、クライアントPC10は、プロセッサ11により実行されるバックグラウンド処理として、例えば現在モニタDPに表示していない他のカメラ(例えばカメラB)から配信されている撮像映像を受信し、受信した撮像映像とカメラBの撮像映像もしくは編集映像の背景画像とを用いて、カメラBの背景画像を更新する(S85)。 FIG. 37 is a schematic diagram showing an outline of the third video display method in the fifth embodiment. As a main process executed by the processor 11, the client PC 10 receives, for example, the captured video AA1 distributed from the camera A, and displays the edited video BB1 obtained by performing mask processing on the captured video AA1 on the monitor DP (S81). ). Further, as background processing executed by the processor 11, the client PC 10 receives, for example, a captured video distributed from another camera (for example, camera B) that is not currently displayed on the monitor DP, and the received captured video and The background image of the camera B is updated using the captured image of the camera B or the background image of the edited video (S85).
ステップS85の背景画像の更新処理は、現在クライアントPC10と通信可能な(接続可能な)カメラから配信されている撮像映像に対して行われるものであり、例えば定期的に行われても良いし、少なくとも一定時間が経過すれば行われても良いし、要は繰り返して実行されれば構わない。なお、ステップS85の詳細は、例えば図11のステップS14及びステップS15において説明済みであるため、説明を省略する。 The background image update process in step S85 is performed on a captured image distributed from a camera that is currently communicable (connectable) with the client PC 10, and may be performed periodically, for example. It may be performed if at least a certain time elapses, or may be performed repeatedly. Note that details of step S85 have been described in, for example, step S14 and step S15 in FIG.
クライアントPC10は、バックグラウンド処理により生成又は更新した背景画像をストレージ15に保存する(S86)。ここで、モニタDPに表示される映像の配信元がカメラAからカメラBに切り替えられた場合、クライアントPC10は、カメラAの編集映像の背景画像をストレージ15に保存し、次に表示するカメラBについて、バックグラウンド処理によってストレージ15に保存されたカメラBの撮像映像又は編集映像の背景画像をストレージ15から取得する(S83)。クライアントPC10は、メイン処理として、ステップS83において取得した背景画像とカメラBから配信されている撮像映像とを用いてマスク処理を行い、マスク処理後の編集映像をモニタDPに表示する。 The client PC 10 stores the background image generated or updated by the background processing in the storage 15 (S86). Here, when the distribution source of the video displayed on the monitor DP is switched from the camera A to the camera B, the client PC 10 stores the background image of the edited video of the camera A in the storage 15 and then displays the camera B to be displayed next. , The background image of the captured image or edited video of the camera B saved in the storage 15 by the background processing is acquired from the storage 15 (S83). As the main process, the client PC 10 performs a mask process using the background image acquired in step S83 and the captured video distributed from the camera B, and displays the edited video after the mask process on the monitor DP.
図38は、図37に示すメイン処理の動作手順の一例を説明するフローチャートである。図39は、図37に示すバックグラウンド処理の動作手順の一例を説明するフローチャートである。図38の説明の前提として、モニタDPに表示される映像の配信元としてカメラAが選択されているとし、図39の説明の前提として、現在モニタDPに表示されていないカメラBについて背景画像の生成又は更新の処理が行われているとする。 FIG. 38 is a flowchart for explaining an example of the operation procedure of the main process shown in FIG. FIG. 39 is a flowchart for explaining an example of the operation procedure of the background processing shown in FIG. Assuming that the camera A is selected as the distribution source of the video displayed on the monitor DP as the premise of the explanation of FIG. 38, the background image of the camera B not currently being displayed on the monitor DP is assumed as the premise of the explanation of FIG. Assume that generation or update processing is performed.
図38において、クライアントPC10のプロセッサ11は、カメラAの撮像映像もしくは編集映像の背景画像をストレージ15から取得する(S121)。プロセッサ11は、現在カメラAから配信されている撮像映像とステップS121において取得した背景画像とを用いてマスク処理を行い、マスク処理後の編集映像をモニタDPに表示する(S122)。ここで、操作部13を用いたユーザ操作により、モニタDPに表示される映像の配信元としてのカメラが変更されたとする(S123)。例えば、カメラAからカメラBに切り替える旨の操作がなされたとする。なお、カメラの変更がなされない場合には(S123、NO)、プロセッサ11の処理はステップS122に戻る。 In FIG. 38, the processor 11 of the client PC 10 acquires the background image of the image captured by the camera A or the edited image from the storage 15 (S121). The processor 11 performs mask processing using the captured video currently distributed from the camera A and the background image acquired in step S121, and displays the edited video after the mask processing on the monitor DP (S122). Here, it is assumed that the camera as the distribution source of the video displayed on the monitor DP is changed by a user operation using the operation unit 13 (S123). For example, assume that an operation for switching from camera A to camera B is performed. When the camera is not changed (S123, NO), the processing of the processor 11 returns to step S122.
この場合(S123、YES)、プロセッサ11は、カメラBの撮像映像もしくは編集映像の背景画像をストレージ15から取得する(S124)。プロセッサ11は、現在カメラBから配信されている撮像映像とステップS124において取得した背景画像とを用いてマスク処理を行い、マスク処理後の編集映像をモニタDPに表示する(S125)。ここで、操作部13を用いたユーザ操作により、モニタDPに表示される映像の配信元としてのカメラが変更されたとする(S126)。例えば、カメラBからカメラCに切り替える旨の操作がなされたとする。なお、カメラの変更がなされない場合には(S126、NO)、プロセッサ11の処理はステップS125に戻る。 In this case (S123, YES), the processor 11 acquires the background image of the captured video or edited video of the camera B from the storage 15 (S124). The processor 11 performs mask processing using the captured video currently distributed from the camera B and the background image acquired in step S124, and displays the edited video after the mask processing on the monitor DP (S125). Here, it is assumed that the camera as the distribution source of the video displayed on the monitor DP is changed by a user operation using the operation unit 13 (S126). For example, it is assumed that an operation for switching from the camera B to the camera C is performed. When the camera is not changed (S126, NO), the process of the processor 11 returns to step S125.
カメラBからカメラCに切り替える旨の操作がなされた場合でも、以降の処理は、選択されたカメラについて、ステップS121及びステップS122と同様の各処理が繰り返して実行される。 Even when an operation for switching from the camera B to the camera C is performed, the subsequent processes are repeatedly executed for the selected camera in the same manner as in steps S121 and S122.
図39において、プロセッサ11は、カメラBから配信されている撮像映像を取得する(S131)。プロセッサ11は、カメラBの撮像映像もしくは編集映像の背景画像をストレージ15に保存している場合には、カメラBの撮像映像もしくは編集映像の背景画像をストレージ15から取得する(S132)。なお、カメラBの撮像映像もしくは編集映像の背景画像がストレージ15に保存されていない場合には、ステップS132の処理は省略される。 In FIG. 39, the processor 11 acquires the captured video distributed from the camera B (S131). In the case where the background image of the captured image or edited video of the camera B is stored in the storage 15, the processor 11 acquires the background image of the captured image or edited video of the camera B from the storage 15 (S132). Note that if the background image of the image captured by the camera B or the edited image is not stored in the storage 15, the process of step S132 is omitted.
プロセッサ11は、カメラBから配信されている撮像映像とステップS132において取得した背景画像とを用いて、背景画像を更新(図12参照)する(S133)。又は、ステップS132の処理が省略された場合には、プロセッサ11は、カメラBから配信されている撮像映像を用いて、カメラBの背景画像を生成(図11のステップS11参照)する(S133)。プロセッサ11は、ステップS133において生成したカメラBの背景画像又は更新したカメラBの背景画像をストレージ15に保存する(S134)。 The processor 11 updates the background image (see FIG. 12) using the captured image distributed from the camera B and the background image acquired in step S132 (S133). Alternatively, when the process of step S132 is omitted, the processor 11 generates a background image of the camera B using the captured video distributed from the camera B (see step S11 in FIG. 11) (S133). . The processor 11 stores the background image of the camera B generated in step S133 or the updated background image of the camera B in the storage 15 (S134).
この後、プロセッサ11は、ステップS131〜ステップS134の各処理(BGpb)を単位として、カメラCについても同様に背景画像の生成や更新の各処理(BGpc)を実施し、その後、カメラAについても同様に背景画像の生成や更新の各処理(BGpa)を実施する。以降、背景画像の更新の処理(BGpb)→背景画像の更新の処理(BGpc)→背景画像の更新の処理(BGpa)が繰り返される。 Thereafter, the processor 11 similarly performs each process (BGpc) for generating and updating the background image for the camera C in units of the processes (BGpb) in steps S131 to S134, and thereafter also for the camera A. Similarly, background image generation and update processing (BGpa) is performed. Thereafter, the process of updating the background image (BGpb) → the process of updating the background image (BGpc) → the process of updating the background image (BGpa) is repeated.
第3映像表示方式によれば、クライアントPC10は、現在モニタDPに表示していないカメラの背景画像をバックグラウンド処理で更新できるので、上述した第1映像表示方式や第2映像表示方式に比べて、過大な処理負荷を受けることなく、最新の背景画像に更新でき、使用する背景画像の精度が向上する。これにより、クライアントPC10は、背景画像が更新されたカメラに切り替えられた場合に、そのカメラにより撮像された撮像映像中の静止物及び移動体(例えば人物)を、上述した第1映像表示方式や第2映像表示方式に比べて正しく認識することが可能となり、結果的に静止物を移動体と誤認識する頻度を低減することができる。 According to the third video display method, the client PC 10 can update the background image of the camera that is not currently displayed on the monitor DP by background processing, so that the client PC 10 can compare with the first video display method and the second video display method described above. The latest background image can be updated without receiving an excessive processing load, and the accuracy of the background image to be used is improved. As a result, when the client PC 10 is switched to the camera whose background image is updated, the stationary object and the moving body (for example, a person) in the captured image captured by the camera are displayed in the first video display method described above. It becomes possible to recognize correctly compared with the second video display method, and as a result, the frequency of erroneously recognizing a stationary object as a moving object can be reduced.
(第4映像表示方式)
第4映像表示方式では、クライアントPC10とサーバPC30とで第3映像表示方式のメイン処理とバックグラウンド処理とが分担される。具体的には、クライアントPC10は、第3映像表示方式におけるメイン処理を実行し、サーバPC30は、第3映像表示方式におけるバックグラウンド処理を実行する。サーバPC30は、バックグラウンド処理としての背景画像の生成又は更新により得た背景画像をストレージSP14(図40参照)に保存(退避)する。
(4th video display system)
In the fourth video display method, the client PC 10 and the server PC 30 share the main processing and background processing of the third video display method. Specifically, the client PC 10 executes main processing in the third video display method, and the server PC 30 executes background processing in the third video display method. The server PC 30 saves (saves) the background image obtained by generating or updating the background image as background processing in the storage SP 14 (see FIG. 40).
図40は、サーバPCの内部構成の一例を詳細に示すブロック図である。図40に示すサーバPC30は、プロセッサSP11、通信部SP12、メモリSP13、ストレージSP14及び電源管理部SP15を含む構成である。 FIG. 40 is a block diagram showing in detail an example of the internal configuration of the server PC. The server PC 30 shown in FIG. 40 includes a processor SP11, a communication unit SP12, a memory SP13, a storage SP14, and a power management unit SP15.
プロセッサSP11は、サーバPC30の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。プロセッサSP11は、例えばCPU、MPU、DSP又はFPGAを用いて構成される。 The processor SP11 performs signal processing for overall control of operations of each unit of the server PC 30, data input / output processing with other units, data calculation processing, and data storage processing. The processor SP11 is configured using, for example, a CPU, MPU, DSP, or FPGA.
例えばプロセッサSP11は、各種のカメラ(例えば全方位カメラCAM11,CAM31、PTZカメラCAM12,CAM13,CAM21,CAM32,CAM33、固定カメラCAM14,CAM22,CAM34)から配信されているそれぞれの撮像映像のデータを、通信部SP12を介して取得する。プロセッサSP11は、各種のカメラから配信されている撮像映像を用いて、例えば図39に示すバックグラウンド処理を行うことで、背景画像を生成し、又は背景画像を繰り返して更新する(例えば定期的に更新する)。また、プロセッサSP11は、各種のカメラから配信されている撮像映像を、録画映像として、撮像日時及びカメラの識別情報と関連付けてストレージSP14に保存してもよい。 For example, the processor SP11 obtains each captured video data distributed from various cameras (for example, omnidirectional cameras CAM11, CAM31, PTZ cameras CAM12, CAM13, CAM21, CAM32, CAM33, fixed cameras CAM14, CAM22, CAM34). Obtained via the communication unit SP12. The processor SP11 generates a background image by repeatedly performing, for example, the background processing shown in FIG. 39 using captured images distributed from various cameras (for example, periodically updates the background image). Update). Further, the processor SP11 may store the captured video distributed from various cameras as a recorded video in the storage SP14 in association with the imaging date and camera identification information.
通信部SP12は、各種のカメラ(例えば全方位カメラCAM11,CAM31、PTZカメラCAM12,CAM13,CAM21,CAM32,CAM33、固定カメラCAM14,CAM22,CAM34)から配信されている撮像映像のデータを受信してプロセッサSP11に出力する。また、通信部SP12は、プロセッサSP11がストレージSP14から読み出した録画映像のデータをクライアントPC10に送信したり、プロセッサSP11がストレージSP14から読み出した背景画像のデータをクライアントPC10に送信したりする。 The communication unit SP12 receives captured image data distributed from various cameras (for example, omnidirectional cameras CAM11, CAM31, PTZ cameras CAM12, CAM13, CAM21, CAM32, CAM33, fixed cameras CAM14, CAM22, CAM34). Output to the processor SP11. Further, the communication unit SP12 transmits the recorded video data read from the storage SP14 by the processor SP11 to the client PC 10, or transmits the background image data read from the storage SP14 by the processor SP11 to the client PC 10.
メモリSP13は、サーバPC30の動作を規定するためのプログラムや設定値のデータが格納されたROM131SPと、プロセッサSP11が生成した各種のデータや処理途中のワークデータを記憶するRAM132SPとを含む。また、図40には図示されていないが、メモリSP13は、サーバPC30に挿抜自在に接続され、各種データが記憶されるメモリカード(不図示)を更に有しても構わない。 The memory SP13 includes a ROM 131SP that stores a program for defining the operation of the server PC 30 and set value data, and a RAM 132SP that stores various data generated by the processor SP11 and work data being processed. Although not shown in FIG. 40, the memory SP13 may further include a memory card (not shown) that is detachably connected to the server PC 30 and stores various data.
ストレージSP14は、例えば各種のカメラから配信(送信)された撮像映像のデータを記憶したり、プロセッサSPにより生成又は更新された背景画像のデータを記憶したりする。また、ストレージSP14は、クライアントPC10により生成された編集映像や編集録画映像のデータをクライアントPC10から受信した場合に、その編集映像や編集録画映像のデータを記憶しても構わない。 The storage SP 14 stores, for example, captured video data distributed (transmitted) from various cameras, and background image data generated or updated by the processor SP. Further, the storage SP 14 may store the edited video or edited video data when the edited video or edited video data generated by the client PC 10 is received from the client PC 10.
電源管理部SP15は、サーバPC30の各部に直流電源を供給する。 The power management unit SP15 supplies DC power to each unit of the server PC 30.
図41は、第5の実施形態における第4映像表示方式の概要を示す模式図である。クライアントPC10は、プロセッサ11により実行されるメイン処理として、例えばカメラAから配信された撮像映像AA1を受信し、撮像映像AA1にマスク処理を行って得た編集映像BB1をモニタDPに表示する(S81)。サーバPC30は、プロセッサSP11により実行されるバックグラウンド処理として、各種のカメラ(例えば全方位カメラCAM11,CAM31、PTZカメラCAM12,CAM13,CAM21,CAM32,CAM33、固定カメラCAM14,CAM22,CAM34)から配信されている撮像映像を受信し、受信したそれぞれの撮像映像と各種のカメラの撮像映像もしくは編集映像の背景画像とを用いて、各種のカメラの背景画像をそれぞれ更新する(S85A)。 FIG. 41 is a schematic diagram showing an outline of the fourth video display method in the fifth embodiment. As a main process executed by the processor 11, the client PC 10 receives, for example, the captured video AA1 distributed from the camera A, and displays the edited video BB1 obtained by performing mask processing on the captured video AA1 on the monitor DP (S81). ). The server PC 30 is distributed from various cameras (for example, omnidirectional cameras CAM11, CAM31, PTZ cameras CAM12, CAM13, CAM21, CAM32, CAM33, fixed cameras CAM14, CAM22, CAM34) as background processing executed by the processor SP11. The captured images are received, and the background images of the various cameras are updated using the received captured images and the captured images of the various cameras or the background images of the edited video (S85A).
ステップS85Aの背景画像の更新処理は、現在サーバPC30と通信可能な(接続可能な)全てのカメラから配信されている撮像映像に対して行われるものであり、例えば定期的に行われても良いし、少なくとも一定時間が経過すれば行われても良いし、要は繰り返して実行されれば構わない。なお、ステップS85Aの詳細は、例えば図11のステップS14及びステップS15において説明済みであるため、説明を省略する。 The background image update process in step S85A is performed on captured images distributed from all cameras that are currently communicable (connectable) with the server PC 30, and may be performed periodically, for example. However, it may be performed at least after a certain time has elapsed, or in short, it may be performed repeatedly. Note that details of step S85A have been described in, for example, step S14 and step S15 in FIG.
サーバPC30は、バックグラウンド処理により生成又は更新した背景画像をストレージSP14に保存して順次更新する(S86A)。ここで、モニタDPに表示される映像の配信元がカメラAからカメラBに切り替えられた場合、クライアントPC10は、カメラAの編集映像の背景画像をストレージ15に保存してもよいし保存しなくても構わない。また、クライアントPC10は、次に表示するカメラBについて、サーバPC30のバックグラウンド処理によってストレージSP14に保存されたカメラBの撮像映像もしくは編集映像の背景画像をサーバPC30から受信して取得する(S83A)。クライアントPC10は、メイン処理として、ステップS83Aにおいて取得した背景画像とカメラBから配信されている撮像映像とを用いてマスク処理を行い、マスク処理後の編集映像をモニタDPに表示する。 The server PC 30 stores the background image generated or updated by the background processing in the storage SP 14 and sequentially updates it (S86A). Here, when the distribution source of the video displayed on the monitor DP is switched from the camera A to the camera B, the client PC 10 may or may not store the background image of the edited video of the camera A in the storage 15. It doesn't matter. Further, the client PC 10 receives and acquires the captured image of the camera B or the background image of the edited video stored in the storage SP14 by the background processing of the server PC 30 for the camera B to be displayed next from the server PC 30 (S83A). . As a main process, the client PC 10 performs a mask process using the background image acquired in step S83A and the captured video distributed from the camera B, and displays the edited video after the mask process on the monitor DP.
上述したように、第4映像表示方式では、クライアントPC10は図38に示すメイン処理を行い、一方、サーバPC30は図39に示すバックグラウンド処理を行う。つまり、クライアントPC10とサーバPC30とでメイン処理とバックグラウンド処理とを分担する。従って、第4映像表示方式によれば、各種のカメラの背景画像がサーバPC30のバックグラウンド処理によって更新されるので、クライアントPC10は、ユーザ操作によっていずれかのカメラの撮像映像をモニタDPに表示する旨の操作がなされる度に、選択されたカメラの最新の背景画像をサーバPC30からリアルタイムに取得でき、取得した上でメイン処理としてマスク処理を実行できる。これにより、クライアントPC10は、ユーザ操作により選択されたカメラの背景画像を生成することなく(つまり、初期学習をすることなく)、適切にマスク処理した編集映像をモニタDPに表示できる。 As described above, in the fourth video display system, the client PC 10 performs the main process shown in FIG. 38, while the server PC 30 performs the background process shown in FIG. That is, the client PC 10 and the server PC 30 share the main process and the background process. Therefore, according to the fourth video display method, since the background images of various cameras are updated by the background processing of the server PC 30, the client PC 10 displays the captured video of one of the cameras on the monitor DP by a user operation. Each time the operation is performed, the latest background image of the selected camera can be acquired from the server PC 30 in real time, and the mask process can be executed as the main process after acquisition. Thereby, the client PC 10 can display the edited video appropriately masked on the monitor DP without generating a background image of the camera selected by the user operation (that is, without performing initial learning).
以上により、第5の実施形態の監視カメラシステム100は、撮像エリアを撮像する複数のカメラ(例えば全方位カメラCAM11,固定カメラCAM14,…)と、複数のカメラのうちの第1カメラ(カメラA)から配信された撮像エリアの撮像映像、又は撮像映像に現れる移動体をマスク画像に変更するためのマスク処理を行って得た編集映像をモニタDPに表示するクライアントPC10と、を備える。クライアントPC10は、個々のカメラから配信された各撮像映像の背景画像を生成してストレージ15に保存する。クライアントPC10は、カメラAから第2カメラ(カメラB)への切替に応じて、選択されたカメラBから配信された撮像映像の背景画像をストレージ15から取得し、ストレージ15から取得した背景画像とカメラBから配信された撮像映像とを用いて、カメラBから配信された撮像映像に対してマスク処理を行って得た編集映像をモニタDPに表示する。 As described above, the surveillance camera system 100 according to the fifth embodiment includes a plurality of cameras (e.g., the omnidirectional camera CAM11, the fixed camera CAM14,...) That capture an imaging area and the first camera (camera A) of the plurality of cameras. The client PC 10 displays on the monitor DP the captured video of the imaging area distributed from (1)) or the edited video obtained by performing mask processing for changing the moving body appearing in the captured video to a mask image. The client PC 10 generates a background image of each captured video distributed from each camera and stores it in the storage 15. In response to switching from the camera A to the second camera (camera B), the client PC 10 acquires the background image of the captured video distributed from the selected camera B from the storage 15 and the background image acquired from the storage 15 Using the captured video distributed from camera B, an edited video obtained by performing mask processing on the captured video distributed from camera B is displayed on monitor DP.
第5の実施形態のクライアントPC10も、第1の実施形態と同様に、撮像映像に現れる移動中の人物の少なくとも一部又は全部をマスク画像に置き換えるマスク処理を行うことができる。これにより、クライアントPC10は、カメラの映像を切り替えてモニタDPに表示する場合に、選択されたカメラの前回使用していた撮像映像もしくは編集映像の背景画像をストレージ15から取得してマスク処理できるので、切替によって選択されたカメラから配信されている撮像映像の背景画像を初期学習によって生成する必要が無い。つまり、クライアントPC10は、カメラAからカメラBに切り替えられた場合に、カメラBから配信されている撮像映像の背景画像を生成する期間、映像の非表示を抑制でき、ユーザの監視業務の効率アップやマーケティング分析精度の向上を支援することができる。 Similarly to the first embodiment, the client PC 10 of the fifth embodiment can also perform mask processing that replaces at least a part or all of the moving person appearing in the captured image with a mask image. As a result, when the client PC 10 switches the video of the camera and displays it on the monitor DP, the client PC 10 can acquire the background image of the captured video or the edited video used by the selected camera last time from the storage 15 and perform mask processing. Therefore, it is not necessary to generate a background image of the captured video delivered from the camera selected by switching by initial learning. That is, when the camera PC 10 is switched from the camera A to the camera B, the client PC 10 can suppress the non-display of the video during the period of generating the background image of the captured video distributed from the camera B, thereby improving the efficiency of the user's monitoring work. And can improve the accuracy of marketing analysis.
また、クライアントPC10は、カメラAからカメラBへの切替に応じて、カメラAから配信された撮像映像の背景画像をストレージ15に記憶(保存)する。これにより、クライアントPC10は、切り替えられるまでに使用していた最新のカメラAの背景画像をストレージ15に保存でき、次回にカメラAの撮像映像をモニタDPに表示する際に、最新の背景画像を用いてマスク処理を迅速かつ適切に実行できる。 Further, the client PC 10 stores (saves) the background image of the captured video distributed from the camera A in the storage 15 in accordance with the switching from the camera A to the camera B. As a result, the client PC 10 can store the latest background image of the camera A that has been used until the switching is performed in the storage 15, and when the captured image of the camera A is displayed on the monitor DP next time, the latest background image is displayed. It is possible to perform mask processing quickly and appropriately.
また、クライアントPC10は、カメラAからカメラBへの切替に応じて、カメラBの編集映像の前回表示時からの経過時間が所定時間(例えば30分)より短い場合に、選択されたカメラBから配信された撮像映像の背景画像をストレージ15から取得する。これにより、クライアントPC10は、例えば前回にカメラBの撮像映像又は編集映像を表示してから30分以内であれば背景画像が大きく変わることが無いというカメラBの設置環境であれば、前回使用時の背景画像をストレージ15から取得してマスク処理の際に使用できるので、カメラBからの撮像映像に対して再度初期学習をすること無く、マスク処理を迅速かつ適切に実行できる。 Further, in response to the switch from camera A to camera B, the client PC 10 starts from the selected camera B when the elapsed time from the previous display of the edited video of the camera B is shorter than a predetermined time (for example, 30 minutes). A background image of the delivered captured video is acquired from the storage 15. Thereby, for example, if the installation environment of the camera B is such that the background image does not change significantly within 30 minutes after displaying the captured image or edited video of the camera B last time, Since the background image can be acquired from the storage 15 and used in the mask process, the mask process can be executed quickly and appropriately without performing initial learning again on the captured image from the camera B.
また、クライアントPC10は、モニタDPに表示されていない、少なくとも一つのカメラから配信された撮像映像の背景画像をストレージ15から取得して一定間隔で更新し、更新後の背景画像をストレージ15に記憶する。これにより、クライアントPC10は、現在モニタDPに表示していないカメラの背景画像をバックグラウンド処理で更新できるので、上述した第1映像表示方式や第2映像表示方式に比べて、過大な処理負荷を受けることなく、最新の背景画像に更新でき、使用する背景画像の精度が向上する。これにより、クライアントPC10は、背景画像が更新されたカメラに切り替えられた場合に、そのカメラにより撮像された撮像映像中の静止物及び移動体(例えば人物)を、上述した第1映像表示方式や第2映像表示方式に比べて正しく認識することが可能となり、結果的に静止物を移動体と誤認識する頻度を低減することができる。 Further, the client PC 10 obtains a background image of the captured video delivered from at least one camera, which is not displayed on the monitor DP, from the storage 15 and updates it at regular intervals, and stores the updated background image in the storage 15. To do. As a result, the client PC 10 can update the background image of the camera that is not currently displayed on the monitor DP by the background processing, and therefore has an excessive processing load compared to the first video display method and the second video display method described above. Without being received, it can be updated to the latest background image, and the accuracy of the background image to be used is improved. As a result, when the client PC 10 is switched to the camera whose background image is updated, the stationary object and the moving body (for example, a person) in the captured image captured by the camera are displayed in the first video display method described above. It becomes possible to recognize correctly compared with the second video display method, and as a result, the frequency of erroneously recognizing a stationary object as a moving object can be reduced.
また、第5の実施形態の監視カメラシステム100は、撮像エリアを撮像する複数のカメラ(例えば全方位カメラCAM11,固定カメラCAM14,…)と、複数のカメラのうちの第1カメラ(カメラA)から配信された撮像エリアの撮像映像、又は撮像映像に現れる移動体をマスク画像に変更するためのマスク処理を行って得た編集映像をモニタDPに表示するクライアントPC10と、個々のカメラから配信された各撮像映像の背景画像を生成してストレージSP14に保存するサーバPC30と、を備える。サーバPC30は、バックグラウンド処理として、ストレージSP14から取得した各撮像映像の背景画像を一定間隔で更新し、更新後の各背景画像をストレージSP14に記憶する。クライアントPC10は、カメラAから第2カメラ(カメラB)への切替に応じて、選択されたカメラBに対応する生成後又は更新後の背景画像をサーバPC30から取得し、サーバPC30から取得した背景画像とカメラBから配信された撮像映像とを用いて、カメラBから配信された撮像映像に対してマスク処理を行って得た編集映像をモニタDPに表示する。 Moreover, the surveillance camera system 100 of the fifth embodiment includes a plurality of cameras (for example, an omnidirectional camera CAM11, a fixed camera CAM14,...) That capture an imaging area, and a first camera (camera A) among the plurality of cameras. From the client PC 10 that displays on the monitor DP the captured video of the imaging area distributed from the above, or the edited video obtained by performing mask processing for changing the moving body appearing in the captured video to a mask image, and distributed from each camera. And a server PC 30 that generates a background image of each captured video and saves it in the storage SP14. As a background process, the server PC 30 updates the background image of each captured video acquired from the storage SP14 at regular intervals, and stores the updated background image in the storage SP14. The client PC 10 acquires a generated or updated background image corresponding to the selected camera B from the server PC 30 in response to switching from the camera A to the second camera (camera B), and the background acquired from the server PC 30 Using the image and the captured video distributed from camera B, an edited video obtained by performing mask processing on the captured video distributed from camera B is displayed on monitor DP.
言い換えると、クライアントPC10のメイン処理に対するバックグラウンド処理として、各種のカメラの背景画像がサーバPC30によって更新される。従って、クライアントPC10は、ユーザ操作によっていずれかのカメラの撮像映像をモニタDPに表示する旨の操作がなされる度に、選択されたカメラの最新の背景画像をサーバPC30からリアルタイムに取得でき、取得した上でメイン処理としてマスク処理を実行できる。これにより、クライアントPC10は、ユーザ操作により選択されたカメラの背景画像を生成することなく(つまり、初期学習をすることなく)、適切にマスク処理した編集映像をモニタDPに表示できる。 In other words, the background image of various cameras is updated by the server PC 30 as a background process for the main process of the client PC 10. Therefore, the client PC 10 can acquire the latest background image of the selected camera in real time from the server PC 30 every time an operation for displaying the captured image of any camera on the monitor DP is performed by a user operation. In addition, mask processing can be executed as main processing. Thereby, the client PC 10 can display the edited video appropriately masked on the monitor DP without generating a background image of the camera selected by the user operation (that is, without performing initial learning).
(第5の実施形態の内容に至る第2の経緯) (Second process leading to the contents of the fifth embodiment)
特許文献1によれば、監視エリアにおいて検知された人物の動画映像内の位置情報及び人物の属性(例えば性別、年齢)毎にマスク画像が生成されるため、そのマスク画像により、プライバシーを確保した上で店舗内の人物の行動が把握可能となる。 According to Patent Document 1, since a mask image is generated for each position information and person attribute (for example, gender, age) in a moving image of a person detected in a monitoring area, privacy is ensured by the mask image. The behavior of the person in the store can be grasped above.
しかしながら、特許文献1では、動画映像において検知された人物の画像領域をマスク画像に変更するのはカメラであり、カメラからの動画映像を受信する受信装置(例えばユーザが使用するクライアントPC)によりマスク処理が行われることは考慮されていない。また、既設の監視カメラには、特許文献1のマスク処理を実行可能な機能(マスク機能)を有していないものが少なくない。 However, in Patent Document 1, it is a camera that changes the image area of a person detected in a moving image to a mask image, and the mask is set by a receiving device (for example, a client PC used by a user) that receives the moving image from the camera. It is not taken into account that processing is performed. Many existing surveillance cameras do not have a function (mask function) capable of executing the mask processing of Patent Document 1.
ここで、例えばユーザの監視業務の中で、監視エリアに設置された監視カメラからそれぞれ撮像されてレコーダ等の外部装置に録画(記録)された過去の撮像映像をクライアントPCのモニタに表示する際に、ユーザ操作により、再生対象となる録画日時が順に切り替えて表示されることを想定する。クライアントPCは、録画映像の録画日時が切り替わる度に、指定された録画日時の録画映像に対してマスク処理を行うため、マスク処理における初期学習(後述参照)において録画映像中の背景画像(つまり、録画映像中で動きの無い静止領域からなる画像領域)を生成する必要がある。しかしながら、この初期学習の処理中は、録画映像中の背景画像の生成が完了していないためにクライアントPCは録画映像の表示をできず、録画映像の表示ができない期間(例えば30秒〜1分程度)が発生するという課題がある(図42参照)。図42は、マスクカメラ方式とクライアントPC方式とにおける、任意の指定日時におけるカメラの編集録画映像の表示時の課題の説明図である。 Here, for example, in a user's monitoring work, when past captured images that are respectively captured from a monitoring camera installed in a monitoring area and recorded (recorded) on an external device such as a recorder are displayed on the monitor of the client PC Further, it is assumed that the recording date and time to be reproduced are sequentially switched and displayed by a user operation. Since the client PC performs a mask process on the recorded video at the designated recording date and time every time the recording date and time of the recorded video is switched, a background image (that is, a video image) in the recorded video in the initial learning (see later) in the mask process is performed. It is necessary to generate a still image area that does not move in the recorded video. However, during the initial learning process, since the generation of the background image in the recorded video is not completed, the client PC cannot display the recorded video and cannot display the recorded video (for example, 30 seconds to 1 minute). There is a problem that the degree is generated (see FIG. 42). FIG. 42 is an explanatory diagram of a problem when displaying the edited and recorded video of the camera at an arbitrary designated date and time in the mask camera system and the client PC system.
ここで、図42を参照して、上述した課題をより具体的に説明する。 Here, with reference to FIG. 42, the above-described problem will be described more specifically.
マスクカメラ方式(詳細は図28参照)では、マスクカメラ(つまり、マスク機能を有するカメラ)において撮像映像に対してマスク処理が行われる。つまり、マスクカメラにより生成された編集映像中の移動体(例えば人物)の画像部分はマスク画像に置き換えられて、編集録画映像としてレコーダ(例えばレコーダREC1)に保存される。ここで、ユーザ操作により、任意の指定日時に撮像された過去の撮像映像(例えば、レコーダREC1に保存されている録画映像)の再生が指示された場合、クライアントPCは、レコーダREC1から取得した編集録画映像DD1をすぐに表示することが可能である。 In the mask camera system (see FIG. 28 for details), mask processing is performed on a captured image in a mask camera (that is, a camera having a mask function). That is, the image portion of the moving body (for example, a person) in the edited video generated by the mask camera is replaced with the mask image, and is stored in the recorder (for example, the recorder REC1) as the edited video. Here, when an instruction to reproduce a past captured video (for example, a recorded video stored in the recorder REC1) captured at an arbitrary designated date and time is given by the user operation, the client PC edits acquired from the recorder REC1. The recorded video DD1 can be displayed immediately.
一方、クライアントPC方式(詳細は図29参照)では、例えばカメラはマスク機能を有さず、カメラから配信された撮像映像に対してクライアントPCにおいてマスク処理が行われる。つまり、カメラから配信された撮像映像がクライアントPCによってマスク処理されて編集映像が生成される。ここで、ユーザ操作により、任意の指定日時に撮像された過去の撮像映像(例えば、レコーダREC1に保存されている録画映像)の再生が指示された場合、クライアントPCは、レコーダREC1から取得した録画映像にマスク処理を行う際、背景画像を生成するために初期学習を行う必要がある。この初期学習は例えば30秒〜1分程度であるが、この初期学習の期間、クライアントPCはレコーダREC1から取得した録画映像をマスク処理した結果の編集録画映像DD1を表示できない。言い換えると、クライアントPCは、ユーザ操作により任意の指定日時に撮像された録画映像の再生指示があっても、レコーダREC1から取得した録画映像をマスク処理した結果の編集録画映像DD1をすぐに表示できない。 On the other hand, in the client PC method (see FIG. 29 for details), for example, the camera does not have a mask function, and the client PC performs a mask process on the captured video distributed from the camera. That is, the captured video delivered from the camera is masked by the client PC to generate an edited video. Here, when an instruction to reproduce a past captured video (for example, a recorded video stored in the recorder REC1) captured at an arbitrary designated date and time is given by the user operation, the client PC acquires the recording acquired from the recorder REC1. When masking a video, it is necessary to perform initial learning in order to generate a background image. This initial learning is, for example, about 30 seconds to 1 minute. During this initial learning, the client PC cannot display the edited recorded video DD1 as a result of masking the recorded video acquired from the recorder REC1. In other words, the client PC cannot immediately display the edited recorded video DD1 as a result of masking the recorded video acquired from the recorder REC1, even if there is an instruction to reproduce the recorded video captured at any specified date and time by a user operation. .
監視カメラの録画映像の録画日時がユーザ操作により指定される度に、クライアントPCにおける初期学習の処理を仮に省略した場合、クライアントPCにおいて適正な背景画像が生成されないことになる。このため、クライアントPCがマスク処理において移動体(例えば人物)の検知を正しくできず、マスク処理後の編集録画映像内の人物がマスク画像に置き換えて表示されずにそのまま表示されてしまい、その人物のプライバシーが的確に保護されないという可能性がある。 When the recording date and time of the recorded video of the surveillance camera is designated by a user operation, if the initial learning process in the client PC is omitted, an appropriate background image is not generated in the client PC. For this reason, the client PC cannot correctly detect the moving object (for example, a person) in the mask process, and the person in the edited recording video after the mask process is displayed without being replaced with the mask image. May not be properly protected.
そこで、第5の実施形態の第5映像表示方式〜第6映像表示方式では、モニタへの表示対象となる監視カメラの録画映像の録画日時の指定があった場合に、指定された録画日時における録画映像の非表示を抑制した上でマスク処理を適切に施し、ユーザの監視業務の効率やマーケティング分析精度の向上を図るモニタリングシステム及び映像表示方法の例を説明する。 Therefore, in the fifth video display method to the sixth video display method of the fifth embodiment, when the recording date / time of the recorded video of the surveillance camera to be displayed on the monitor is specified, the specified recording date / time is set. An example of a monitoring system and a video display method for suppressing the non-display of recorded video and appropriately performing mask processing to improve the efficiency of the user's monitoring work and the accuracy of marketing analysis will be described.
(第5映像表示方式)
図43は、第5の実施形態における第5映像表示方式の概要を示す模式図である。第5映像表示方式では、クライアントPC10は、プロセッサ11により実行されるメイン処理として、例えばカメラAから配信された撮像映像AA1を受信し、撮像映像AA1にマスク処理を行って得た編集映像BB1をモニタDPに表示する(S81)。なお、クライアントPC10は、ステップS81として、カメラAから配信された撮像映像AA1をマスク処理する以外に、例えば過去の録画映像を保持する配信装置から配信された録画映像を受信し、この録画映像にマスク処理を行って得た編集映像をモニタDPに表示してもよい。この処理は、図46におけるステップS81においても同様である。但し、クライアントPC10は、ステップS81のマスク処理を行う前に、配信装置から配信された録画映像の背景画像を予め保持しているか、又は配信装置からの配信された録画映像に背景画像が含まれる場合にその背景画像を取得しているとする。配信装置は、例えば上述したカメラA、レコーダ(例えばレコーダREC1,REC2,REC3,REC4)、PCレコーダ、クライアントPC10自身のうちいずれであっても構わない。PCレコーダは、例えばそのPCレコーダ自身に内蔵されるハードディスクに録画映像を保持した汎用のPCであり、具体的にはクライアントPC10でもよいし、クライアントPC10を除くネットワークNWに接続された他のPC(図27において不図示)でもよい。PCレコーダは、例えば図27に示す各種のカメラから配信された撮像映像を内蔵ハードディスクに録画(記録)し、自身又は他のPC(例えばクライアントPC10)に対して録画した映像(録画映像)を配信するアプリケーションが組み込まれた汎用的なPCである。
(5th video display system)
FIG. 43 is a schematic diagram showing an outline of the fifth video display method in the fifth embodiment. In the fifth video display method, the client PC 10 receives, for example, the captured video AA1 distributed from the camera A as the main process executed by the processor 11, and uses the edited video BB1 obtained by performing mask processing on the captured video AA1. The data is displayed on the monitor DP (S81). Note that, in step S81, the client PC 10 receives a recorded video distributed from a distribution device that holds a past recorded video, for example, in addition to performing mask processing on the captured video AA1 distributed from the camera A. The edited video obtained by performing the masking process may be displayed on the monitor DP. This process is the same in step S81 in FIG. However, the client PC 10 holds a background image of the recorded video distributed from the distribution device in advance before performing the masking process of step S81, or the background image is included in the recorded video distributed from the distribution device. In this case, it is assumed that the background image is acquired. The distribution device may be any of the above-described camera A, recorder (for example, recorders REC1, REC2, REC3, and REC4), PC recorder, and client PC 10 itself. The PC recorder is, for example, a general-purpose PC that holds a recorded video in a hard disk built in the PC recorder itself. Specifically, the PC recorder may be a client PC 10 or another PC ( (Not shown in FIG. 27). For example, the PC recorder records (records) captured images distributed from various cameras shown in FIG. 27 on the built-in hard disk, and distributes the recorded video (recorded video) to itself or another PC (for example, the client PC 10). This is a general-purpose PC in which an application to be installed is incorporated.
また、クライアントPC10は、プロセッサ11により実行されるバックグラウンド処理として、各種のカメラ(例えば全方位カメラCAM11,CAM31、PTZカメラCAM12,CAM13,CAM21,CAM32,CAM33、固定カメラCAM14,CAM22,CAM34)から配信されている撮像映像を受信し、受信したそれぞれの撮像映像を用いて、各種のカメラの背景画像を繰り返し(例えば定期的に)生成する(S88)。 Further, the client PC 10 performs background processing executed by the processor 11 from various cameras (for example, omnidirectional cameras CAM11, CAM31, PTZ cameras CAM12, CAM13, CAM21, CAM32, CAM33, fixed cameras CAM14, CAM22, CAM34). The distributed captured images are received, and background images of various cameras are generated repeatedly (for example, periodically) using each received captured image (S88).
ステップS88の背景画像の繰り返し生成処理は、現在クライアントPC10と通信可能な(接続可能な)全てのカメラから配信されている撮像映像に対して行われるものであり、例えば定期的に行われても良いし、少なくとも一定時間が経過すれば行われても良いし、要は繰り返して実行されれば構わない。なお、ステップS88の詳細は、例えば図11のステップS11において説明済みであるため、説明を省略する。 The background image repetitive generation process in step S88 is performed on captured video images distributed from all cameras that are currently communicable (connectable) with the client PC 10, and may be performed periodically, for example. It may be performed if at least a certain time has passed, or may be performed repeatedly. The details of step S88 have already been described in step S11 of FIG.
クライアントPC10は、バックグラウンド処理により生成した(言い換えると、順次追加した)背景画像をストレージ15に保存して順次蓄積する(S86B)。ここで、ユーザ操作により、ユーザがカメラAに対して再生したい録画映像の録画日時が指定された時、クライアントPC10は、録画日時に最も近い生成日時に生成されたカメラAの背景画像をストレージ15から読み出して取得する(S87)。クライアントPC10は、メイン処理として、ステップS87において取得した背景画像とストレージ15又はサーバPC30のストレージSP14から取得したカメラAの上述した録画日時における録画映像とを用いてマスク処理を行い、マスク処理後の編集録画映像をモニタDPに表示する。 The client PC 10 stores the background images generated by the background processing (in other words, sequentially added) in the storage 15 and sequentially accumulates them (S86B). Here, when the recording date and time of the recorded video that the user wants to play back to the camera A is designated by the user operation, the client PC 10 stores the background image of the camera A generated at the generation date and time closest to the recording date and time. Is read out and acquired (S87). As a main process, the client PC 10 performs a mask process using the background image acquired in step S87 and the recorded video at the above-described recording date and time of the camera A acquired from the storage 15 or the storage SP 14 of the server PC 30. The edited recording video is displayed on the monitor DP.
図44は、図43に示すメイン処理の動作手順の一例を説明するフローチャートである。図45は、図43に示すバックグラウンド処理の動作手順の一例を説明するフローチャートである。図44の説明の前提として、モニタDPに表示される録画映像(つまり、ユーザ操作により指定される録画日時に撮像された撮像映像)は、レコーダ(例えばレコーダREC1)からクライアントPC10に送信されてストレージ15に保存されているとする。図45の説明の前提として、サーバPC30は、カメラA→カメラB→カメラC→…の順に、同一の処理を行う。カメラCは、図27に示すいずれかのカメラである。 FIG. 44 is a flowchart for explaining an example of the operation procedure of the main process shown in FIG. FIG. 45 is a flowchart for explaining an example of the operation procedure of the background processing shown in FIG. As a premise of the description of FIG. 44, a recorded video displayed on the monitor DP (that is, a captured video captured at a recording date and time designated by a user operation) is transmitted from the recorder (for example, the recorder REC1) to the client PC 10 for storage. 15 is stored. 45, the server PC 30 performs the same processing in the order of camera A → camera B → camera C →. The camera C is one of the cameras shown in FIG.
図44において、操作部13を用いたユーザ操作により、モニタDPに表示される録画映像の配信元としてのカメラ(例えばカメラA)が選択され(S141、YES)、かつユーザが再生したい録画日時が指定されたとする(S142)。この場合、クライアントPC10のプロセッサ11は、指定された録画日時に撮像されたカメラAの撮像映像(つまり、カメラAの録画映像)をストレージ15から取得する(S143)。プロセッサ11は、バックグラウンド処理によりストレージ15に保存されたカメラAの生成日時毎の背景画像の中から、録画日時に最も近い生成日時(図45参照)に生成されたカメラAの背景画像をストレージ15から取得する(S144)。 In FIG. 44, a user operation using the operation unit 13 selects a camera (for example, camera A) as a distribution source of a recorded video displayed on the monitor DP (S141, YES), and the recording date and time that the user wants to play back is selected. It is assumed that it is designated (S142). In this case, the processor 11 of the client PC 10 acquires the captured image of the camera A (that is, the recorded image of the camera A) captured from the storage 15 (S143). The processor 11 stores the background image of the camera A generated at the generation date / time closest to the recording date / time (see FIG. 45) from the background images for each generation date / time of the camera A stored in the storage 15 by the background processing. 15 (S144).
プロセッサ11は、ステップS143において取得したカメラAの録画映像とステップS144において取得したカメラAの背景画像とを用いてマスク処理(図11及び図12参照)を行う(S145)。プロセッサ11は、マスク処理後の編集録画映像をモニタDPに表示する(S146)。ステップS146の後、プロセッサ11のメイン処理はステップS141に戻り、この時点でユーザ操作によりカメラが選択されない場合には(S141、NO)、プロセッサ11のメイン処理は終了する。 The processor 11 performs mask processing (see FIGS. 11 and 12) using the recorded video of the camera A acquired in step S143 and the background image of the camera A acquired in step S144 (S145). The processor 11 displays the edited recorded video after the mask processing on the monitor DP (S146). After step S146, the main process of the processor 11 returns to step S141. If no camera is selected by the user operation at this time (S141, NO), the main process of the processor 11 ends.
図45において、クライアントPC10は、カメラAから配信されている撮像映像を受信する。プロセッサ11は、カメラAから配信されている撮像映像を、通信部12を介して取得する(S151)。プロセッサ11は、ステップS151において取得したカメラAの撮像映像の背景画像を生成する(図11のステップS11参照、S152)。 In FIG. 45, the client PC 10 receives the captured video distributed from the camera A. The processor 11 acquires the captured video distributed from the camera A via the communication unit 12 (S151). The processor 11 generates a background image of the captured image of the camera A acquired in step S151 (see step S11 in FIG. 11, S152).
プロセッサ11は、ステップS152において生成したカメラAの撮像映像の背景画像とカメラAの識別情報(例えばカメラAのIDもしくはIPアドレス、又はその組み合わせ)とステップS152において生成した背景画像の生成日時とを対応付けてストレージ15に保存する(S153)。 The processor 11 obtains the background image of the captured image of the camera A generated in step S152, the identification information of the camera A (for example, the ID or IP address of the camera A, or a combination thereof) and the generation date and time of the background image generated in step S152. Correspondingly stored in the storage 15 (S153).
ステップS153の後、ステップS152における背景画像の生成から所定時間(例えば30分)が経過したか否かがプロセッサ11により判断される(S154)。ステップS152における背景画像の生成から所定時間(例えば30分)が経過したと判断された場合には(S154、YES)、プロセッサ11の処理はステップS151に戻り、以降、カメラAの背景画像の生成が上述した所定時間毎に繰り返される。 After step S153, the processor 11 determines whether or not a predetermined time (for example, 30 minutes) has elapsed since the generation of the background image in step S152 (S154). If it is determined that a predetermined time (for example, 30 minutes) has passed since the generation of the background image in step S152 (S154, YES), the processing of the processor 11 returns to step S151, and the generation of the background image of the camera A is thereafter performed. Is repeated every predetermined time described above.
また、プロセッサ11は、カメラBやカメラC、その他のカメラについても、カメラAの背景画像の所定時間毎の生成処理(BGqa)と同様の処理を実行する(BGqb,BGqc)。 The processor 11 also executes the same processing (BGqb, BGqc) as the generation processing (BGqa) of the background image of the camera A every predetermined time for the camera B, camera C, and other cameras.
第5映像表示方式によれば、クライアントPC10は、バックグラウンド処理として各種のカメラ(上述参照)から配信されている撮像映像の背景画像を繰り返して生成し、この背景画像をカメラの識別情報と背景画像の生成日時と対応付けてストレージ15に保存して蓄積している。従って、クライアントPC10は、クライアントPC10に対するユーザ操作により、モニタDPへの表示対象となる監視カメラの録画映像の録画日時が指定された場合に、その指定された録画日時に最も近い生成日時に生成された背景画像をストレージ15から取得し、この背景画像と録画日時の録画映像とを用いてマスク処理できる。これにより、クライアントPC10は、ユーザが再生したい録画映像をモニタDPに表示する際に、その録画映像の非表示を抑制した上で人物等の移動体をマスク画像に置き換えるためのマスク処理を適切に施し、ユーザの監視業務の効率やマーケティング分析精度の向上を図ることができる。 According to the fifth video display method, the client PC 10 repeatedly generates a background image of a captured video distributed from various cameras (see above) as background processing, and uses the background image as the camera identification information and the background. The image is stored and stored in the storage 15 in association with the image generation date and time. Therefore, when the recording date / time of the recorded video of the monitoring camera to be displayed on the monitor DP is specified by the user operation on the client PC 10, the client PC 10 is generated at the generation date / time closest to the specified recording date / time. A background image obtained from the storage 15 can be masked using the background image and the recorded video of the recording date and time. As a result, when the client PC 10 displays the recorded video that the user wants to reproduce on the monitor DP, the client PC 10 appropriately performs mask processing for replacing a moving body such as a person with a mask image while suppressing the non-display of the recorded video. It is possible to improve the efficiency of user monitoring operations and the accuracy of marketing analysis.
(第6映像表示方式)
第6映像表示方式では、上述した第4映像表示方式と同様に、クライアントPC10とサーバPC30とで第5映像表示方式のメイン処理とバックグラウンド処理とが分担される。具体的には、クライアントPC10は、第5映像表示方式におけるメイン処理を実行し、サーバPC30は、第5映像表示方式におけるバックグラウンド処理を実行する。サーバPC30は、バックグラウンド処理としての背景画像の繰り返し生成により得たその都度の背景画像を、カメラの識別情報と背景画像の生成日時と対応付けてストレージSP14に保存(退避)する。
(Sixth video display method)
In the sixth video display method, as in the above-described fourth video display method, the client PC 10 and the server PC 30 share the main processing and background processing of the fifth video display method. Specifically, the client PC 10 executes main processing in the fifth video display method, and the server PC 30 executes background processing in the fifth video display method. The server PC 30 saves (saves) the background image obtained by repeated generation of the background image as background processing in the storage SP 14 in association with the camera identification information and the generation date and time of the background image.
図46は、第5の実施形態における第6映像表示方式の概要を示す模式図である。クライアントPC10は、プロセッサ11により実行されるメイン処理として、例えばカメラAから配信された撮像映像AA1を受信し、撮像映像AA1にマスク処理を行って得た編集映像BB1をモニタDPに表示する(S81)。サーバPC30は、プロセッサSP11により実行されるバックグラウンド処理として、各種のカメラ(例えば全方位カメラCAM11,CAM31、PTZカメラCAM12,CAM13,CAM21,CAM32,CAM33、固定カメラCAM14,CAM22,CAM34)から配信されている撮像映像を受信し、受信したそれぞれの撮像映像を用いて、各種のカメラの背景画像を繰り返し(例えば定期的に)生成する(S88A)。 FIG. 46 is a schematic diagram showing an outline of the sixth video display method in the fifth embodiment. As a main process executed by the processor 11, the client PC 10 receives, for example, the captured video AA1 distributed from the camera A, and displays the edited video BB1 obtained by performing mask processing on the captured video AA1 on the monitor DP (S81). ). The server PC 30 is distributed from various cameras (for example, omnidirectional cameras CAM11, CAM31, PTZ cameras CAM12, CAM13, CAM21, CAM32, CAM33, fixed cameras CAM14, CAM22, CAM34) as background processing executed by the processor SP11. The captured image is received, and background images of various cameras are generated repeatedly (for example, periodically) using each received captured image (S88A).
ステップS88Aの背景画像の繰り返し生成処理は、現在サーバPC30と通信可能な(接続可能な)全てのカメラから配信されている撮像映像に対して行われるものであり、例えば定期的に行われても良いし、少なくとも一定時間が経過すれば行われても良いし、要は繰り返して実行されれば構わない。なお、ステップS88Aの詳細は、例えば図11のステップS11において説明済みであるため、説明を省略する。 The background image repetitive generation process in step S88A is performed on captured video images distributed from all cameras that are currently communicable (connectable) with the server PC 30, and may be performed periodically, for example. It may be performed if at least a certain time has passed, or may be performed repeatedly. Note that details of step S88A have been described in, for example, step S11 of FIG.
サーバPC30は、バックグラウンド処理により生成した(言い換えると、順次追加した)背景画像をストレージSP14に保存して順次蓄積する(S86C)。ここで、ユーザ操作により、ユーザがカメラAに対して再生したい録画映像の録画日時が指定された時、クライアントPC10は、録画日時に最も近い生成日時に生成されたカメラAの背景画像をサーバPC30から受信して取得する(S87)。クライアントPC10は、メイン処理として、ステップS87において取得した背景画像とストレージ15又はサーバPC30のストレージSP14から取得したカメラAの上述した録画日時における録画映像とを用いてマスク処理を行い、マスク処理後の編集録画映像をモニタDPに表示する。 The server PC 30 stores the background images generated by the background processing (in other words, sequentially added) in the storage SP 14 and sequentially accumulates them (S86C). Here, when the recording date and time of the recorded video that the user wants to play back to the camera A is designated by the user operation, the client PC 10 displays the background image of the camera A generated on the generation date and time closest to the recording date and time on the server PC 30. (S87). As a main process, the client PC 10 performs a mask process using the background image acquired in step S87 and the recorded video at the above-described recording date and time of the camera A acquired from the storage 15 or the storage SP 14 of the server PC 30. The edited recording video is displayed on the monitor DP.
第6映像表示方式によれば、クライアントPC10は図44に示すメイン処理を行い、一方、サーバPC30は図45に示すバックグラウンド処理を行う。つまり、クライアントPC10とサーバPC30とでメイン処理とバックグラウンド処理とを分担する。従って、第6映像表示方式によれば、各種のカメラの背景画像がサーバPC30のバックグラウンド処理によって更新されるので、クライアントPC10は、ユーザ操作によってユーザが再生したいと考えているいずれかのカメラの録画映像の録画日時の指定操作がなされる度に、指定された録画日時に最も近いカメラの背景画像をサーバPC30から迅速に取得でき、この背景画像と録画日時における録画映像とを用いてメイン処理としてのマスク処理を実行してマスク処理後の編集録画映像をモニタDPに表示できる。これにより、クライアントPC10は、どのカメラの任意の録画日時における録画映像を再生したい場合でも、適切にマスク処理した編集映像をモニタDPに表示できるので、例えば何かのインシデントが発生した時の原因究明の効率的な支援を行うことができ、ユーザの監視業務の効率アップやマーケティング分析精度を向上することができる。 According to the sixth video display method, the client PC 10 performs the main process shown in FIG. 44, while the server PC 30 performs the background process shown in FIG. That is, the client PC 10 and the server PC 30 share the main process and the background process. Therefore, according to the sixth video display method, the background images of various cameras are updated by the background processing of the server PC 30, so that the client PC 10 can select one of the cameras that the user wants to reproduce by user operation. Each time a recording video recording date and time designation operation is performed, a camera background image closest to the specified recording date and time can be quickly acquired from the server PC 30, and the main process is performed using the background image and the recording video at the recording date and time. As a result, the edited recorded video after the masking process can be displayed on the monitor DP. As a result, the client PC 10 can display the edited video appropriately masked on the monitor DP, regardless of the camera's desired recording date and time, so that, for example, investigation of the cause when an incident occurs Can be efficiently supported, improving the efficiency of user monitoring operations and improving the accuracy of marketing analysis.
以上により、第5の実施形態の監視カメラシステム100は、撮像エリアを撮像するカメラ(例えば固定カメラCAM14)と、このカメラから配信された撮像エリアの一定期間分の撮像映像を録画映像としてストレージ15に保存するクライアントPC10と、を備える。クライアントPC10は、撮像エリアの一定期間分の撮像映像の背景画像を繰り返し生成し、生成後の背景画像とカメラの識別情報と背景画像の生成日時とを対応付けてストレージ15に保存して順次追加して蓄積する。クライアントPC10は、ユーザが再生を希望する録画日時(再生日時)の指定に応じて、指定された再生日時に最も近い生成日時に生成された背景画像をストレージ15から取得し、ストレージ15から取得した背景画像と録画映像としての撮像エリアの一定期間分の撮像映像とを用いて、録画映像に現れる移動体(例えば人物)をマスク画像に変更するためのマスク処理を行って得た編集録画映像をモニタDPに表示する。 As described above, the surveillance camera system 100 according to the fifth embodiment stores a camera 15 that captures an imaging area (for example, the fixed camera CAM 14) and a captured image of a certain period of the imaging area distributed from the camera as a recorded video. And a client PC 10 for storing the data. The client PC 10 repeatedly generates a background image of the captured video for a certain period of the imaging area, associates the generated background image, the camera identification information, and the background image generation date with the storage image 15 and sequentially adds them. And accumulate. The client PC 10 acquires the background image generated at the generation date and time closest to the specified playback date and time from the storage 15 in accordance with the designation of the recording date and time (playback date and time) that the user desires to reproduce. An edited and recorded video obtained by performing mask processing for changing a moving body (for example, a person) appearing in the recorded video to a mask image using the background image and the captured video for a certain period of the imaging area as a recorded video. Display on monitor DP.
従って、クライアントPC10は、クライアントPC10に対するユーザ操作により、モニタDPへの表示対象となる監視カメラの録画映像の録画日時が指定された場合に、その指定された録画日時に最も近い生成日時に生成された背景画像をストレージ15から取得し、この背景画像と録画日時の録画映像とを用いてマスク処理できる。これにより、クライアントPC10は、ユーザが再生したい録画映像をモニタDPに表示する際に、その録画映像の非表示を抑制した上で人物等の移動体をマスク画像に置き換えるためのマスク処理を適切に施し、ユーザの監視業務の効率やマーケティング分析精度の向上を図ることができる。 Therefore, when the recording date / time of the recorded video of the monitoring camera to be displayed on the monitor DP is specified by the user operation on the client PC 10, the client PC 10 is generated at the generation date / time closest to the specified recording date / time. A background image obtained from the storage 15 can be masked using the background image and the recorded video of the recording date and time. As a result, when the client PC 10 displays the recorded video that the user wants to reproduce on the monitor DP, the client PC 10 appropriately performs mask processing for replacing a moving body such as a person with a mask image while suppressing the non-display of the recorded video. It is possible to improve the efficiency of user monitoring operations and the accuracy of marketing analysis.
また、第5の実施形態の監視カメラシステム100は、撮像エリアを撮像するカメラ(例えば固定カメラCAM14)と、このカメラから配信された撮像エリアの一定期間分の撮像映像を録画映像としてストレージ15に保存するクライアントPC10と、カメラから配信された撮像エリアの一定期間分の撮像映像の背景画像を繰り返し生成し、生成後の背景画像とカメラの識別情報と背景画像の生成日時とを対応付けてストレージSP14に保存するサーバPC30と、を備える。クライアントPC10は、ユーザが再生を希望する録画日時(再生日時)の指定に応じて、指定された再生日時に最も近い生成日時に生成された背景画像をサーバPC30から取得し、サーバPC30から取得した背景画像とストレージ15に保存した録画映像としての撮像エリアの一定期間分の撮像映像とを用いて、録画映像に現れる移動体(例えば人物)をマスク画像に変更するためのマスク処理を行って得た編集録画映像をモニタDPに表示する。 The surveillance camera system 100 according to the fifth embodiment also includes a camera (for example, a fixed camera CAM 14) that captures an image capturing area, and a captured image of a certain period of the image capturing area distributed from the camera as a recorded image in the storage 15. The client PC 10 to be stored and the background image of the captured video for a certain period of the imaging area distributed from the camera are repeatedly generated, and the generated background image, the camera identification information, and the generation date and time of the background image are associated with each other and stored. And a server PC 30 stored in the SP 14. The client PC 10 acquires the background image generated at the generation date and time closest to the specified playback date and time from the server PC 30 and acquires from the server PC 30 according to the designation of the recording date and time (playback date and time) that the user desires to play back. Obtained by performing a mask process for changing a moving body (for example, a person) appearing in the recorded video to a mask image using the background image and the captured video for a certain period of the imaging area as the recorded video stored in the storage 15. The edited recorded video is displayed on the monitor DP.
従って、各種のカメラの背景画像がサーバPC30のバックグラウンド処理によって更新されるので、クライアントPC10は、ユーザ操作によってユーザが再生したいと考えているいずれかのカメラの録画映像の録画日時の指定操作がなされる度に、指定された録画日時に最も近いカメラの背景画像をサーバPC30から迅速に取得でき、この背景画像と録画日時における録画映像とを用いてメイン処理としてのマスク処理を実行してマスク処理後の編集録画映像をモニタDPに表示できる。これにより、クライアントPC10は、どのカメラの任意の録画日時における録画映像を再生したい場合でも、適切にマスク処理した編集映像をモニタDPに表示できるので、例えば何かのインシデントが発生した時の原因究明の効率的な支援を行うことができ、ユーザの監視業務の効率アップやマーケティング分析精度を向上することができる。 Accordingly, since the background images of various cameras are updated by the background processing of the server PC 30, the client PC 10 performs an operation for specifying the recording date and time of the recorded video of any camera that the user wants to reproduce by the user operation. Each time it is done, the background image of the camera closest to the designated recording date and time can be quickly acquired from the server PC 30, and the mask processing as the main processing is executed using this background image and the recorded video at the recording date and time to perform masking. The edited and recorded video after processing can be displayed on the monitor DP. As a result, the client PC 10 can display the edited video appropriately masked on the monitor DP, regardless of the camera's desired recording date and time, so that, for example, investigation of the cause when an incident occurs Can be efficiently supported, improving the efficiency of user monitoring operations and improving the accuracy of marketing analysis.
以上、図面を参照しながら各種の実施形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、上述した各実施形態を組み合わせた事項についても当然に本発明の技術的範囲に属するものと了解される。 While various embodiments have been described above with reference to the drawings, it goes without saying that the present invention is not limited to such examples. It is obvious for those skilled in the art that various changes or modifications can be conceived within the scope of the claims, and it is obvious that the present invention also applies to the combination of the above-described embodiments. It is understood that it belongs to the technical scope of
本発明は、モニタへの表示対象となる監視カメラの撮像映像の切り替えがあっても、選択された撮像映像の非表示を抑制した上でマスク処理を適切に施し、ユーザの監視業務の効率やマーケティング分析精度の向上を図るモニタリングシステム、映像表示方法及びコンピュータプログラムとして有用である。 The present invention appropriately performs mask processing after suppressing the non-display of the selected captured image even when the captured image of the monitoring camera to be displayed on the monitor is switched, and improves the efficiency of the monitoring operation of the user. It is useful as a monitoring system , a video display method and a computer program for improving marketing analysis accuracy.
10 クライアントPC
11 プロセッサ
12 通信部
13 操作部
15 ストレージ
16 メモリ
17 電源管理部
30 サーバPC
100 監視カメラシステム(モニタリングシステム)
111 画像入力部
112 背景画像処理部
113 マスク処理設定部
114 マスク処理部
115 映像出力制御部
161 ROM
162 RAM
CAM11、CAM31 全方位カメラ
CAM12、CAM13、CAM21、CAM32、CAM33 PTZカメラ
CAM14、CAM22、CAM34 固定カメラ
NW ネットワーク
REC1、REC2、REC3、REC4 レコーダ
10 Client PC
11 Processor 12 Communication Unit 13 Operation Unit 15 Storage 16 Memory 17 Power Management Unit 30 Server PC
100 surveillance camera system (monitoring system)
111 Image Input Unit 112 Background Image Processing Unit 113 Mask Processing Setting Unit 114 Mask Processing Unit 115 Video Output Control Unit 161 ROM
162 RAM
CAM11, CAM31 Omnidirectional camera CAM12, CAM13, CAM21, CAM32, CAM33 PTZ camera CAM14, CAM22, CAM34 Fixed camera NW Network REC1, REC2, REC3, REC4 Recorder
Claims (8)
前記複数のカメラのうちの第1カメラから配信された前記撮像エリアの撮像映像、又は前記撮像映像に現れる移動体をマスク画像に変更するためのマスク処理を行って得た第1編集映像をモニタに表示する情報処理装置と、を備え、
前記情報処理装置は、個々の前記カメラから配信された各撮像映像の背景画像を繰り返し生成して記憶部に保存し、
前記情報処理装置は、前記第1カメラから第2カメラへの切替に応じて、前記第1カメラから配信されて前記記憶部に記憶されている撮像映像の背景画像を前記記憶部に保持させておき、
更に、前記第2カメラから配信された撮像映像の背景画像を前記記憶部から取得し、前記記憶部から取得した背景画像と前記第2カメラから配信された撮像映像とを用いて、前記第2カメラから配信された撮像映像に対して前記マスク処理を行って得た第2編集映像を前記モニタに表示する、
モニタリングシステム。 A plurality of cameras for imaging the imaging area;
Monitor the captured video of the imaging area distributed from the first camera of the plurality of cameras or the first edited video obtained by performing mask processing for changing a moving body appearing in the captured video to a mask image An information processing device to be displayed on
The information processing apparatus repeatedly generates a background image of each captured video distributed from each individual camera and stores it in a storage unit,
In response to switching from the first camera to the second camera, the information processing apparatus causes the storage unit to hold a background image of a captured video that is distributed from the first camera and stored in the storage unit. Every
Further, a background image of the captured video distributed from the second camera is acquired from the storage unit, and the second image is acquired using the background image acquired from the storage unit and the captured video distributed from the second camera. Displaying on the monitor a second edited video obtained by performing the mask processing on the captured video delivered from the camera;
Monitoring system.
前記情報処理装置は、前記第1カメラから第2カメラへの切替に応じて、前記第2編集映像の前回表示時からの経過時間が所定時間より短い場合に、選択された前記第2カメラから配信された撮像映像の背景画像を前記記憶部から取得する、
モニタリングシステム。 The monitoring system according to claim 1,
When the elapsed time from the previous display time of the second edited video is shorter than a predetermined time in response to switching from the first camera to the second camera, the information processing apparatus starts from the selected second camera. Obtaining a background image of the delivered captured video from the storage unit;
Monitoring system.
前記複数のカメラのうちの第1カメラから配信された前記撮像エリアの撮像映像、又は前記撮像映像に現れる移動体をマスク画像に変更するためのマスク処理を行って得た第1編集映像をモニタに表示する情報処理装置と、を備え、
前記情報処理装置は、個々の前記カメラから配信された各撮像映像の背景画像を生成して記憶部に保存し、
前記情報処理装置は、前記第1カメラから第2カメラへの切替に応じて、選択された前記第2カメラから配信された撮像映像の背景画像を前記記憶部から取得し、前記記憶部から取得した背景画像と前記第2カメラから配信された撮像映像とを用いて、前記第2カメラから配信された撮像映像に対して前記マスク処理を行って得た第2編集映像を前記モニタに表示し、
更に、前記情報処理装置は、前記モニタに表示されていない、少なくとも一つの前記カメラから配信された撮像映像の背景画像を前記記憶部から取得して一定間隔で更新し、更新後の背景画像を前記記憶部に記憶する、
モニタリングシステム。 A plurality of cameras for imaging the imaging area;
Monitor the captured video of the imaging area distributed from the first camera of the plurality of cameras or the first edited video obtained by performing mask processing for changing a moving body appearing in the captured video to a mask image An information processing device to be displayed on
The information processing device generates a background image of each captured video distributed from each of the cameras and stores it in a storage unit,
The information processing apparatus acquires, from the storage unit, a background image of a captured video distributed from the selected second camera in response to switching from the first camera to the second camera. The second edited video obtained by performing the mask processing on the captured video distributed from the second camera using the background image and the captured video distributed from the second camera are displayed on the monitor. ,
Further , the information processing apparatus acquires a background image of a captured video distributed from at least one of the cameras that is not displayed on the monitor, updates the background image at a predetermined interval, and updates the background image after the update. Storing in the storage unit;
Monitoring system.
前記複数のカメラのうちの第1カメラから配信された前記撮像エリアの撮像映像、又は前記撮像映像に現れる移動体をマスク画像に変更するためのマスク処理を行って得た第1編集映像をモニタに表示する情報処理装置と、
個々の前記カメラから配信された各撮像映像の背景画像を生成して記憶部に保存するサーバ装置と、を備え、
前記サーバ装置は、前記記憶部から取得した前記各撮像映像の背景画像を一定間隔で更新し、更新後の各背景画像を前記記憶部に記憶し、
前記情報処理装置は、前記第1カメラから第2カメラへの切替に応じて、選択された前記第2カメラに対応する生成後又は更新後の背景画像を前記サーバ装置から取得し、前記サーバ装置から取得した背景画像と前記第2カメラから配信された撮像映像とを用いて、前記第2カメラから配信された撮像映像に対して前記マスク処理を行って得た第2編集映像を前記モニタに表示する、
モニタリングシステム。 A plurality of cameras for imaging the imaging area;
Monitor the captured video of the imaging area distributed from the first camera of the plurality of cameras or the first edited video obtained by performing mask processing for changing a moving body appearing in the captured video to a mask image An information processing device to be displayed on
A server device that generates a background image of each captured video distributed from each of the cameras and stores the background image in a storage unit,
The server device updates the background image of each captured video acquired from the storage unit at regular intervals, stores each background image after update in the storage unit,
The information processing apparatus acquires a generated or updated background image corresponding to the selected second camera from the server apparatus in response to switching from the first camera to the second camera, and the server apparatus The second edited video obtained by performing the mask processing on the captured video distributed from the second camera using the background image acquired from the video and the captured video distributed from the second camera is used as the monitor. indicate,
Monitoring system.
前記情報処理装置は、個々の前記カメラから配信された各撮像映像の背景画像を繰り返して生成して記憶部に保存し、
前記情報処理装置は、前記第1カメラから第2カメラへの切替に応じて、前記第1カメラから配信されて前記記憶部に記憶されている撮像映像の背景画像を前記記憶部に保持させておき、
更に、前記第2カメラから配信された撮像映像の背景画像を前記記憶部から取得し、前記記憶部から取得した背景画像と前記第2カメラから配信された撮像映像とを用いて、前記第2カメラから配信された撮像映像に対して前記マスク処理を行って得た第2編集映像を前記モニタに表示する、
映像表示方法。 A first image obtained by performing mask processing for changing a captured image of the imaging area distributed from a first camera of a plurality of cameras that capture an imaging area or a moving body appearing in the captured image to a mask image. A video display method in a monitoring system for displaying an edited video on a monitor using an information processing device ,
The information processing apparatus repeatedly generates a background image of each captured video distributed from each of the cameras, stores the background image in a storage unit,
In response to switching from the first camera to the second camera, the information processing apparatus causes the storage unit to hold a background image of a captured video that is distributed from the first camera and stored in the storage unit. Every
Further, a background image of the captured video distributed from the second camera is acquired from the storage unit, and the second image is acquired using the background image acquired from the storage unit and the captured video distributed from the second camera. Displaying on the monitor a second edited video obtained by performing the mask processing on the captured video delivered from the camera;
Video display method.
個々の前記カメラから配信された各撮像映像の背景画像を生成して記憶部に保存するサーバ装置と、を備えたモニタリングシステムにおける映像表示方法であって、
前記サーバ装置は、前記記憶部から取得した前記各撮像映像の背景画像を一定間隔で更新し、更新後の各背景画像を前記記憶部に記憶し、
前記情報処理装置は、前記第1カメラから第2カメラへの切替に応じて、選択された前記第2カメラに対応する生成後又は更新後の背景画像を前記サーバ装置から取得し、前記サーバ装置から取得した背景画像と前記第2カメラから配信された撮像映像とを用いて、前記第2カメラから配信された撮像映像に対して前記マスク処理を行って得た第2編集映像を前記モニタに表示する、
映像表示方法。 The obtained by performing a mask process for changing video image of the imaging area which is distributed from the first camera of the plurality of cameras for imaging the imaging area, or the moving object appearing in the captured image in the mask image An information processing apparatus for displaying one edited video on a monitor;
A server device that generates a background image of each captured video distributed from each individual camera and stores it in a storage unit, and a video display method in a monitoring system,
The server device updates the background image of each captured video acquired from the storage unit at regular intervals, stores each background image after update in the storage unit,
The information processing apparatus acquires a generated or updated background image corresponding to the selected second camera from the server apparatus in response to switching from the first camera to the second camera, and the server apparatus The second edited video obtained by performing the mask processing on the captured video distributed from the second camera using the background image acquired from the video and the captured video distributed from the second camera is used as the monitor. indicate,
Video display method.
個々の前記カメラから配信された各撮像映像の背景画像を繰り返し生成して記憶部に保存するステップと、Repeatedly generating a background image of each captured video distributed from each individual camera and storing it in a storage unit;
前記第1カメラから第2カメラへの切替に応じて、In response to switching from the first camera to the second camera,
前記第1カメラから配信されて前記記憶部に記憶されている撮像映像の背景画像を前記記憶部に保持させておくステップと、Holding a background image of a captured image distributed from the first camera and stored in the storage unit in the storage unit;
前記第2カメラから配信された撮像映像の背景画像を前記記憶部から取得し、前記記憶部から取得した背景画像と前記第2カメラから配信された撮像映像とを用いて、前記第2カメラから配信された撮像映像に対して前記マスク処理を行って得た第2編集映像を前記モニタに表示するステップと、を実行させるための、A background image of the captured video distributed from the second camera is acquired from the storage unit, and the background image acquired from the storage unit and the captured video distributed from the second camera are used to obtain a background image from the second camera. Displaying the second edited video obtained by performing the mask process on the delivered captured video on the monitor,
コンピュータプログラム。Computer program.
前記第1カメラから第2カメラへの切替に応じて、個々の前記カメラから配信された各撮像映像の背景画像を生成して記憶部に保存し、かつ前記記憶部から取得した前記各撮像映像の背景画像を一定間隔で更新し、更新後の各背景画像を前記記憶部に記憶するサーバ装置から、前記第2カメラに対応する生成後又は更新後の背景画像を取得し、取得した背景画像と前記第2カメラから配信された撮像映像とを用いて、前記第2カメラから配信された撮像映像に対して前記マスク処理を行って得た第2編集映像を前記モニタに表示するステップ、を実行させるための、In response to switching from the first camera to the second camera, each captured video that is generated from the background image of each captured video distributed from each camera, stored in the storage unit, and acquired from the storage unit A background image obtained by generating or updating a background image corresponding to the second camera is obtained from a server device that updates the background image of the camera at regular intervals and stores the updated background images in the storage unit. And displaying the second edited video obtained by performing the mask process on the captured video delivered from the second camera on the monitor using the captured video delivered from the second camera. To make it run
コンピュータプログラム。Computer program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016139531A JP6099026B1 (en) | 2016-07-14 | 2016-07-14 | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016139531A JP6099026B1 (en) | 2016-07-14 | 2016-07-14 | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6099026B1 true JP6099026B1 (en) | 2017-03-22 |
JP2018011225A JP2018011225A (en) | 2018-01-18 |
Family
ID=58363153
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016139531A Active JP6099026B1 (en) | 2016-07-14 | 2016-07-14 | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6099026B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115278091A (en) * | 2022-10-08 | 2022-11-01 | 环球数科集团有限公司 | Automatic camera system with all-directional automatic inspection and visual perception functions |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5159381B2 (en) * | 2008-03-19 | 2013-03-06 | セコム株式会社 | Image distribution system |
JP5597781B1 (en) * | 2014-03-26 | 2014-10-01 | パナソニック株式会社 | Residence status analysis apparatus, residence status analysis system, and residence status analysis method |
JP5834193B2 (en) * | 2014-02-05 | 2015-12-16 | パナソニックIpマネジメント株式会社 | MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD |
JP5838371B1 (en) * | 2014-06-30 | 2016-01-06 | パナソニックIpマネジメント株式会社 | Flow line analysis system, camera device, and flow line analysis method |
JP2016032141A (en) * | 2014-07-28 | 2016-03-07 | パナソニックIpマネジメント株式会社 | Monitoring device, monitoring system and monitoring method |
-
2016
- 2016-07-14 JP JP2016139531A patent/JP6099026B1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5159381B2 (en) * | 2008-03-19 | 2013-03-06 | セコム株式会社 | Image distribution system |
JP5834193B2 (en) * | 2014-02-05 | 2015-12-16 | パナソニックIpマネジメント株式会社 | MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD |
JP5597781B1 (en) * | 2014-03-26 | 2014-10-01 | パナソニック株式会社 | Residence status analysis apparatus, residence status analysis system, and residence status analysis method |
JP5838371B1 (en) * | 2014-06-30 | 2016-01-06 | パナソニックIpマネジメント株式会社 | Flow line analysis system, camera device, and flow line analysis method |
JP2016032141A (en) * | 2014-07-28 | 2016-03-07 | パナソニックIpマネジメント株式会社 | Monitoring device, monitoring system and monitoring method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115278091A (en) * | 2022-10-08 | 2022-11-01 | 环球数科集团有限公司 | Automatic camera system with all-directional automatic inspection and visual perception functions |
Also Published As
Publication number | Publication date |
---|---|
JP2018011225A (en) | 2018-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6399356B2 (en) | Tracking support device, tracking support system, and tracking support method | |
JP6206857B1 (en) | Tracking support device, tracking support system, and tracking support method | |
US10360572B2 (en) | Image processing system, method and computer program product for evaluating level of interest based on direction of human action | |
KR20060095515A (en) | Information processing system, information processing apparatus and information processing method, program, and recording medium | |
KR102249498B1 (en) | The Apparatus And System For Searching | |
CN106797429A (en) | Control device, the methods and procedures being controlled to control device | |
JP6381265B2 (en) | Information processing apparatus, display method, and program | |
CN103813094A (en) | Electronic device and related method capable of capturing images, and machine readable storage medium | |
JP6544996B2 (en) | Control device and control method | |
JP6593922B2 (en) | Image surveillance system | |
JP2017162432A (en) | Image processing system, information processing apparatus, information terminal, and program | |
JP6112436B1 (en) | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM | |
JP6099025B1 (en) | MONITORING SYSTEM, MASK PROCESSING SETTING METHOD, AND COMPUTER PROGRAM | |
JP6230386B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6099026B1 (en) | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM | |
JP6098964B1 (en) | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM | |
US10817709B2 (en) | Similar image search system | |
JP6099027B1 (en) | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM | |
JP6098963B1 (en) | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM | |
KR20210108691A (en) | apparatus and method for multi-channel image back-up based on event, and network surveillance camera system including the same | |
JP7298116B2 (en) | Information processing device, information processing method, program | |
JP6252921B1 (en) | Surveillance camera system and playback method | |
KR20220003779A (en) | apparatus and method for multi-channel image back-up based on event, and network surveillance camera system including the same | |
JP5531512B2 (en) | Information processing apparatus, program, and information processing method | |
JP2019068389A (en) | Information processing unit, control method and program of information processing unit |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170213 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6099026 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
SZ03 | Written request for cancellation of trust registration |
Free format text: JAPANESE INTERMEDIATE CODE: R313Z03 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |