[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2016132705A1 - 追跡支援装置、追跡支援システムおよび追跡支援方法 - Google Patents

追跡支援装置、追跡支援システムおよび追跡支援方法 Download PDF

Info

Publication number
WO2016132705A1
WO2016132705A1 PCT/JP2016/000628 JP2016000628W WO2016132705A1 WO 2016132705 A1 WO2016132705 A1 WO 2016132705A1 JP 2016000628 W JP2016000628 W JP 2016000628W WO 2016132705 A1 WO2016132705 A1 WO 2016132705A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
tracking
confirmation
screen
displayed
Prior art date
Application number
PCT/JP2016/000628
Other languages
English (en)
French (fr)
Inventor
園子 平澤
藤松 健
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to RU2017128072A priority Critical patent/RU2696855C2/ru
Priority to GB1711656.7A priority patent/GB2550509B/en
Priority to CN201680009356.9A priority patent/CN107251552A/zh
Priority to US15/548,210 priority patent/US10181197B2/en
Priority to DE112016000841.4T priority patent/DE112016000841T5/de
Publication of WO2016132705A1 publication Critical patent/WO2016132705A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19682Graphic User Interface [GUI] presenting system data to the user, e.g. information on a screen helping a user interacting with an alarm system
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19691Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound
    • G08B13/19693Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound using multiple video sources viewed on a single or compound screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems

Definitions

  • the present disclosure is directed to a tracking support device, a tracking support system, and a tracking support system that display a captured image of each of a plurality of cameras stored in an image storage unit on a display device to assist a monitor who tracks a moving object to be tracked. It relates to a tracking support method.
  • a monitoring system in which a plurality of cameras are installed in a monitoring area, and a monitoring screen for displaying images for each of the plurality of cameras is displayed on a monitor to allow a supervisor to monitor is widely used.
  • the supervisor by accumulating the video of the camera in the recorder, the supervisor can confirm what action the person who has performed a troubled act such as shoplifting performed in the surveillance area after the fact. Can do.
  • a video display window for displaying video for each camera is provided on the display screen of the monitor, and the video of the person designated as the tracking target by the monitor is displayed in this video display window, and the progress of the person is displayed on the monitor display screen.
  • a technique for displaying a route is known (see Patent Document 1). In this technique, since the travel route is displayed, it is possible to relatively easily perform the tracking operation while changing the cameras one after another, and to reduce the burden on the observer who performs the tracking operation to some extent.
  • the tracking support device is a tracking support device that supports the work of a monitor who tracks a moving object to be tracked by displaying video for each of a plurality of cameras stored in a video storage unit on a display device.
  • the video stored in the video storage means is displayed on the display device, and the designated moving body is set as the tracking target in accordance with the operation input of the supervisor who designates the moving body as the tracking target on the video.
  • the confirmation video presentation unit that displays on the display device the tracking target confirmation screen that is extracted as a confirmation video, and the confirmation video displayed on the tracking target confirmation screen
  • the possibility of being the same as the moving body set as the tracking target is extracted from the upper level a predetermined number of moving body images that are next to the moving body corresponding to the confirmation video having an error
  • a candidate selection screen on which those images are displayed as candidate images is displayed on the display device, and a candidate image presenting unit that allows a monitor to select a candidate image corresponding to a moving body designated as a tracking target is selected on the candidate selection screen.
  • a tracking information correction unit that corrects tracking information so that the moving object corresponding to the candidate video is associated with the moving object set as the tracking target.
  • the tracking support system displays a video for each of a plurality of cameras stored in the video storage unit on a display device, and supports a monitor's work for tracking a moving object to be tracked. And a camera that captures the surveillance area, a display device that displays video for each camera, and a plurality of information processing devices, and any one of the plurality of information processing devices accumulates in the video storage means.
  • a tracking target setting unit configured to display the displayed video on a display device and set the designated moving body as a tracking target in response to an operation input of a monitor who designates the moving body as a tracking target on the video; Based on the tracking information acquired by the tracking processing for the video stored in the video storage means, the video of the mobile body that is most likely to be the same as the mobile body set as the tracking target is extracted for each camera.
  • Tracking based on tracking information when there is an error in the confirmation video presenting section that displays on the display device the tracking target confirmation screen on which only the video of the video is displayed as the confirmation video and the confirmation video displayed on the tracking target confirmation screen Extract a predetermined number of videos from the top of the mobile object that is next to the mobile object corresponding to the confirmation video with the error that may be the same as the target mobile object.
  • the displayed candidate selection screen is displayed on the display device, and the candidate video presenting unit that allows the monitor to select the candidate video corresponding to the moving object designated as the tracking target corresponds to the candidate video selected on the candidate selection screen.
  • the moving body is configured to include a tracking information correcting unit that corrects tracking information so as to be associated with a moving body set as a tracking target.
  • the tracking support method of the present disclosure displays processing for supporting the work of a monitor who tracks a moving object to be tracked by displaying video for each of a plurality of cameras stored in the video storage unit on a display device.
  • a video of a high moving body is extracted for each camera, and a tracking target confirmation screen on which only those videos are displayed as a confirmation video is displayed on the display device, and a confirmation video displayed on the tracking target confirmation screen is displayed.
  • the video of the mobile object next to the mobile object corresponding to the confirmation video with the error may be the same as the mobile object set as the tracking target based on the tracking information. Extracting a predetermined number of images, displaying a candidate selection screen on which those images are displayed as candidate images on a display device, and causing a monitor to select a candidate image corresponding to a mobile object designated as a tracking target. It is set as the structure provided.
  • the moving object to be tracked is most likely to be captured in the video image of the camera, it is possible to efficiently check the tracking result of the moving object. If there is an error in the confirmation video displayed on the tracking target confirmation screen, that is, if there is an error in the tracking result of the moving object, the possibility that the moving object to be tracked is reflected next to the confirmation video. Since the high video is displayed as the candidate video on the candidate selection screen, the tracking information is corrected by simply selecting the candidate video, so that the tracking information can be corrected with a simple operation.
  • FIG. 1 is an overall configuration diagram of the tracking support system according to the first embodiment.
  • FIG. 2 is a plan view showing the installation status of the camera 1 in the store.
  • FIG. 3 is a functional block diagram showing a schematic configuration of the PC 3.
  • FIG. 4 is an explanatory diagram showing the transition state of the screen displayed on the monitor 7.
  • FIG. 5 is a flowchart showing a procedure of processing performed in each part of the PC 3 in accordance with the operation of the supervisor performed on each screen.
  • FIG. 6 is an explanatory view showing a person search screen by a single camera displayed on the monitor 7.
  • FIG. 7 is an explanatory diagram showing a person search screen by a plurality of cameras displayed on the monitor 7.
  • FIG. 8 is an explanatory diagram showing a single camera selection screen displayed on the monitor 7.
  • FIG. 1 is an overall configuration diagram of the tracking support system according to the first embodiment.
  • FIG. 2 is a plan view showing the installation status of the camera 1 in the store.
  • FIG. 3 is a functional
  • FIG. 9 is an explanatory diagram showing a multiple camera selection screen displayed on the monitor 7.
  • FIG. 10 is an explanatory diagram showing a timeline screen in a confirmation video display state displayed on the monitor 7.
  • FIG. 11 is an explanatory diagram showing a timeline screen in a continuous reproduction state displayed on the monitor 7.
  • FIG. 12 is an explanatory diagram showing a camera position confirmation screen displayed on the monitor 7.
  • FIG. 13 is an explanatory diagram showing a timeline screen in a candidate video display state displayed on the monitor 7.
  • FIG. 14 is an explanatory diagram showing a person addition search screen by a single camera displayed on the monitor 7.
  • FIG. 15 is an explanatory view showing a person addition search screen by a plurality of cameras displayed on the monitor 7.
  • FIG. 16 is an explanatory diagram showing another example of the timeline screen displayed on the monitor 7.
  • FIG. 17 is an explanatory diagram illustrating a transition state of screens displayed on the monitor 7 in the second embodiment.
  • FIG. 18 is an explanatory diagram showing a map screen of the tracking target search state displayed on the monitor 7.
  • FIG. 19 is an explanatory view showing a map screen of the confirmation video display state displayed on the monitor 7.
  • FIG. 20 is an explanatory view showing a map screen of the candidate video display state displayed on the monitor 7.
  • FIG. 21 is an explanatory view showing a map screen of the candidate video display state displayed on the monitor 7.
  • FIG. 22 is a flowchart showing a procedure of processes performed in each part of the PC 3 in the third embodiment.
  • FIG. 23 is a flowchart illustrating a procedure of processes performed by each unit of the PC 3 according to the fourth embodiment.
  • the apparatus performs the process of tracking the person using the image recognition technology.
  • the tracking process If the tracking result of the person specified as the tracking target fails and the person is replaced with another person, an error may occur in the tracking result. Therefore, it is necessary to check whether there is an error in the tracking result.
  • a large-scale monitoring system for a wide monitoring area a large number of monitoring cameras, such as several tens or hundreds, are used, so that the tracking result confirmation operation becomes extremely complicated. Therefore, a technique capable of efficiently performing the tracking result confirmation work is desired.
  • the present disclosure has been devised to solve such problems of the prior art, and the main purpose of this disclosure is to efficiently check the tracking results of the tracking target moving object.
  • a tracking support device for assisting, in which a video stored in the video storage means is displayed on a display device, and designated on the video according to an operation input of a supervisor who specifies a moving object to be tracked The tracking object setting unit that sets the moving object as the tracking object and the tracking information acquired by the tracking process for the video stored in the video storage means are most likely the same as the mobile object set as the tracking target.
  • a video of a high moving object is extracted for each camera, and a confirmation video presentation unit that displays a tracking target confirmation screen on which only those videos are displayed as confirmation video on the display device, and a confirmation video displayed on the tracking target confirmation screen. If there is an error, the video of the mobile object next to the mobile object corresponding to the confirmation video with the error may be the same as the mobile object set as the tracking target based on the tracking information.
  • a candidate video presentation unit that extracts a predetermined number of video images and displays a candidate selection screen on which those videos are displayed as candidate videos on a display device, and allows a monitor to select a candidate video corresponding to a moving object designated as a tracking target
  • a tracking information correction unit that corrects the tracking information so that the mobile object corresponding to the candidate video selected on the candidate selection screen is associated with the mobile object set as the tracking target.
  • the tracking result of the moving object can be confirmed efficiently. If there is an error in the confirmation video displayed on the tracking target confirmation screen, that is, if there is an error in the tracking result of the moving object, the possibility that the moving object to be tracked is reflected next to the confirmation video. Since the high video is displayed as the candidate video on the candidate selection screen, the tracking information is corrected by simply selecting the candidate video, so that the tracking information can be corrected with a simple operation.
  • the second disclosure is configured such that a plurality of confirmation videos are displayed side by side in order of shooting time on the tracking target confirmation screen.
  • the supervisor since the confirmation video is arranged in order of the shooting time and displayed on the tracking target confirmation screen, the supervisor simply checks the confirmation video to check whether there is an error in the tracking result of the mobile object to be tracked. It is possible to check the tracking result of the moving body more efficiently.
  • the tracking target setting unit causes a monitor to select a plurality of cameras, displays video for each of the selected plurality of cameras side by side on a screen, and sets a moving object to be tracked.
  • the monitor is designated.
  • the monitor can efficiently specify the moving object to be tracked. Can do.
  • a scroll operation unit that slides and displays the confirmation videos in the arrangement direction of the confirmation videos displays the tracking target.
  • the configuration is provided on the confirmation screen.
  • the fifth disclosure is directed to a candidate selection screen in which a scroll operation unit that slides and displays candidate videos in the arrangement direction of the candidate videos when a plurality of candidate videos cannot fit in the candidate video display area on the candidate selection screen. It is set as the structure provided in.
  • all candidate videos can be confirmed within one screen, and the work of selecting a candidate video by the supervisor can be performed efficiently.
  • the tracking target setting unit displays a tracking target search screen on which a video that matches the search condition is displayed in accordance with an operation input by a supervisor who inputs the search condition regarding the shooting date and time and the camera.
  • the monitor searches the moving object to be tracked on the tracking object search screen so that the monitor can designate the moving object to be tracked.
  • the candidate selection screen has a configuration in which a candidate video display unit for displaying candidate videos is added to the tracking target confirmation screen.
  • the work of selecting the candidate video by the supervisor can be performed while comparing with the confirmation video, and the work of selecting the candidate video by the supervisor is efficient. Can be done well.
  • the eighth disclosure further displays a continuous reproduction screen in which videos for each camera related to a moving object set as a tracking target and a moving object associated with the moving object are arranged in order of shooting time. It is configured to include a video playback unit that performs continuous playback that is displayed on the apparatus and that displays video for each camera as a moving image sequentially over time on the continuous playback screen.
  • the observer can easily confirm what action the mobile object to be tracked has performed in the monitoring area. .
  • the ninth disclosure further includes a camera position for displaying a position of the camera corresponding to the video being reproduced on the map image indicating the state of the surveillance area in accordance with the operation of the supervisor performed on the continuous reproduction screen.
  • the screen generation unit is configured to display a confirmation screen on the display device.
  • the tenth disclosure further includes a period corresponding to a confirmation video having an error when there is no candidate video corresponding to the moving body designated as the tracking target in the candidate video displayed on the candidate selection screen.
  • a tracking target addition setting unit for displaying a video on a display device and additionally setting a specified moving body as a tracking target according to an operation input of a monitor who specifies the moving body as a tracking target on the video is provided.
  • the tracking information correction unit is configured to correct the tracking information so that the mobile object that is additionally set as the tracking target by the tracking target additional setting unit is associated with the mobile object that is set as the tracking target by the tracking target setting unit.
  • the error is caused by the monitor specifying the mobile target to be tracked. Since the tracking information corresponding to a certain confirmation video is corrected, it is possible to avoid missing tracking information.
  • the mobile object specified as the tracking target is included in the video.
  • a video display period setting unit that sets the specified period as the video display period according to the operation input of the monitor that specifies the period of appearance is provided.
  • the tracking information correction unit is set by the video display period setting unit.
  • the video display period is added to the tracking information.
  • the monitor confirms the error by specifying the video display period. Since the tracking information corresponding to the video is replaced with the video display period, it is possible to avoid the loss of the tracking information. In particular, it is possible to avoid interruption of the video when performing continuous playback in which video for each camera is sequentially displayed as a moving image as time passes.
  • a twelfth disclosure is a tracking support system that supports a monitor's work for tracking a moving object to be tracked by displaying video for each of a plurality of cameras stored in a video storage unit on a display device. And a display device for displaying a video for each camera, a plurality of information processing devices, and any one of the plurality of information processing devices is stored in the video storage means.
  • Tracking target setting means for displaying a video on a display device and setting a designated moving body as a tracking target in accordance with an operation input of a monitor who designates the moving body as a tracking target on the video, and video accumulation Based on the tracking information acquired by the tracking processing for the video accumulated in the means, the video of the mobile body most likely to be the same as the mobile body set as the tracking target is extracted for each camera, and the video only
  • the confirmation video presentation unit that displays the tracking target confirmation screen displayed as the confirmation video on the display device and the confirmation video displayed on the tracking target confirmation screen are set as tracking targets based on the tracking information.
  • Candidates in which a predetermined number of videos of moving objects that are the second highest after the moving object corresponding to the confirmed video with the error are extracted from the top and displayed as candidate videos.
  • a selection screen is displayed on the display device, and a candidate video presenting unit that causes the monitor to select a candidate video corresponding to the mobile object designated as the tracking target, and a mobile object corresponding to the candidate video selected on the candidate selection screen,
  • the tracking information correction unit corrects the tracking information so as to be associated with the mobile object set as the tracking target.
  • the thirteenth disclosure is an information processing device for displaying a video for each of a plurality of cameras stored in a video storage unit on a display device and supporting a monitor's work for tracking a moving object to be tracked.
  • the tracking support method to be performed by the display unit displays the video stored in the video storage means on the display device, and is designated according to the operation input of the supervisor who designates the moving object to be tracked on the video.
  • tracking and “tracking” are used. This is merely used for convenience of explanation, but “tracking” is mainly used. This is used when there is a strong connection with the action of the observer, and “tracking” is used when the connection with the processing mainly performed by the apparatus is strong.
  • FIG. 1 is an overall configuration diagram of the tracking support system according to the first embodiment.
  • This tracking support system is constructed for retail stores such as supermarkets and home centers, and includes a camera 1, a recorder (video storage means) 2, a PC (tracking support device) 3, and tracking in the camera. And a processing device 4.
  • the camera 1 is installed in a proper place in the store, the store (monitoring area) is shot by the camera 1, and the video in the store shot by the camera 1 is recorded on the recorder 2.
  • the PC 3 is connected with an input device 6 such as a mouse for a monitor to perform various input operations, and a monitor (display device) 7 for displaying a monitoring screen.
  • This PC 3 is installed in a security room of the store, etc., and a supervisor (security guard) can view the video in the store taken by the camera 1 in real time on the monitor screen displayed on the monitor 7, In addition, it is possible to browse past videos in the store recorded by the recorder 2.
  • a monitor (not shown) is also connected to the PC 11 provided in the headquarters so that a store image captured by the camera 1 can be viewed in real time, and a past store image recorded by the recorder 2 can be viewed. The situation in the store can be checked at the headquarters.
  • the in-camera tracking processing device 4 tracks a person (moving body) detected from the video of the camera 1 and performs processing for generating in-camera tracking information for each person.
  • a known image recognition technique (such as a person detection technique and a person tracking technique) may be used for the in-camera tracking process.
  • the in-camera tracking processing device 4 always performs the in-camera tracking processing independently of the PC 3. However, the in-camera tracking processing device 4 may execute the tracking processing in response to an instruction from the PC 3. Good. Further, in the in-camera tracking processing device 4, it is desirable to perform tracking processing for all persons detected from the video. However, tracking is limited to a person designated as a tracking target and a person highly related to the tracking target. Processing may be performed.
  • FIG. 2 is a plan view showing the installation status of the camera 1 in the store.
  • a passage is provided between the product display spaces, and a plurality of cameras 1 are installed so as to mainly photograph the passage.
  • the camera that takes over the shooting of the person is limited by the form of the passage in the store and the shooting area of the camera 1, and in this embodiment, the camera that has the relationship of taking over the shooting of the person is a camera having a cooperative relationship.
  • Information relating to the cooperation relationship between the cameras is set in advance and held in the PC 3 as camera cooperation information.
  • the information regarding the cooperation relationship between the cameras is obtained in preparation for changing the number of cameras 1 and the installation location, and the installation information of each camera 1 is individually acquired by the PC 3 when the system is started up. Information may be updated.
  • FIG. 3 is a functional block diagram showing a schematic configuration of the PC 3.
  • the PC 3 includes a tracking information storage unit 21, an inter-camera tracking processing unit 22, an input information acquisition unit 23, a tracking target setting unit 24, a confirmation video presentation unit 25, a candidate video presentation unit 26, and a tracking target addition setting.
  • the in-camera tracking information generated by the in-camera tracking processing device 4 is stored.
  • the tracking information storage unit 21 stores the inter-camera tracking information generated by the inter-camera tracking processing unit 22.
  • the input information acquisition unit 23 performs a process of acquiring input information based on the input operation according to the input operation of the supervisor using the input device 6 such as a mouse.
  • the tracking target setting unit 24 displays a person search screen (tracking target search screen) on which video stored in the recorder 2 is displayed on the monitor 7, and designates a person to be tracked on the person search screen as a monitor. Then, processing for setting the designated person as a tracking target is performed.
  • the inter-camera tracking processing unit 22 includes a link score calculation unit 31, an initial tracking information generation unit 32, a candidate selection unit 33, and a tracking information correction unit 34.
  • the link score calculation unit 31 acquires in-camera tracking information regarding each camera 1 from the tracking information accumulation unit, and the persons detected and tracked by the in-camera tracking processing regarding each camera 1 are likely to be the same person.
  • a link score (evaluation value) representing the height is calculated.
  • the link score is calculated based on the person detection time (frame shooting time), the person detection position, the person moving speed, the color information of the person image, and the like.
  • the initial tracking information generation unit 32 has the highest link score among the people tracked by the in-camera tracking related to the camera 1 that is linked with the person set as the tracking target by the tracking target setting unit 24 as a starting point. That is, a process is performed in which a person who is most likely to be the same person is sequentially selected for each camera 1 and initial tracking information in which those persons are associated with each other as the same person is generated.
  • the person with the highest link score is selected, and then the person with the highest link score is selected from the persons tracked by the in-camera tracking of the camera 1 that is linked to the camera 1 that photographed the selected person.
  • the selection of such a person is repeated for each camera 1 having a cooperative relationship.
  • the process of selecting such a person is performed both before and after the tracking target designation video, and when the highest link score falls below a predetermined threshold, the person to be tracked is selected. It is determined that the person does not exist in the monitoring area, and the selection of the person is finished.
  • the confirmation video presenting unit 25 selects the video of the person with the highest link score, that is, the video most likely to include the person to be tracked.
  • the confirmation video is extracted for each camera 1 and the confirmation video is presented. Specifically, the confirmation video is displayed in the order of the shooting time, and the confirmation video display state timeline screen (tracking target confirmation screen, see FIG. 10). ) Is displayed on the monitor 7.
  • the link score is equal to or greater than a predetermined threshold, and the tracking period of the person corresponding to the confirmation video selected as having an error (period tracked by in-camera tracking) is set as a reference.
  • a candidate person is selected for a person whose tracking period is included in the search period. Note that setting information relating to the threshold value of the link score and the time width for setting the search period is held in a setting information holding unit (not shown) of the PC 3.
  • the candidate video presentation unit 26 when there is an error in the confirmation video presented by the confirmation video presentation unit 25, there is a possibility that a video related to the candidate person selected by the candidate selection unit 33, that is, a person to be tracked is shown. Is extracted as a candidate video, and the candidate video is presented. Specifically, a candidate video display state timeline screen (candidate selection screen, 13) is displayed on the monitor 7, and a process for causing the monitor to select a candidate video in which the person to be tracked is displayed on the screen is performed.
  • the tracking information correction unit 34 of the inter-camera tracking processing unit 22 when there is an appropriate candidate video in the candidate video presented by the candidate video presentation unit 26, a person whose tracking target is a person corresponding to the candidate video The tracking information related to the person to be tracked is corrected to generate corrected tracking information.
  • the tracking information correction unit 34 as in the process of generating the initial tracking information, starting from the person corresponding to the candidate video, the person tracked by the in-camera tracking related to the camera 1 having the cooperative relationship is selected. Then, the person with the highest link score, that is, the person most likely to be the same person is sequentially selected for each camera 1, and the corrected tracking information in which these persons are associated as the same person is generated. Further, in this tracking information correction processing, the person set in the tracking target setting unit 24, the person corresponding to the confirmation video for which the confirmation operation has been performed by the supervisor, and the candidate video replaced with the confirmation video already in error The corresponding person is excluded from the correction target.
  • tracking target addition setting unit 27 when there is no suitable candidate video among the candidate videos presented by the candidate video presenting unit 26, a person addition search screen (tracking target addition) that displays the video accumulated in the recorder 2 is displayed.
  • the search screen (see FIG. 14 and FIG. 15) is displayed on the monitor 7, and the person to be tracked is designated from the video in the period corresponding to the confirmation video with the error on the monitor 7. Then, a process of additionally setting the designated person as a tracking target is performed.
  • the tracking information correction unit 34 of the inter-camera tracking processing unit 22 associates the person set as the tracking target by the tracking target addition setting unit 27 with the person set as the tracking target by the tracking target setting unit 24 and sets the tracking target as the tracking target.
  • the tracking information related to the person who has been corrected is corrected to generate corrected tracking information.
  • the video display period setting unit 28 when there is no suitable candidate video among the candidate videos presented by the candidate video presentation unit 26, a person addition search screen on which the video accumulated in the recorder 2 is displayed is displayed on the monitor 7. Then, on the person search screen, a process is performed in which the monitor designates a period during which the person to be tracked is shown in the video, and that period is set as the video display period.
  • the tracking information correction unit 34 of the inter-camera tracking processing unit 22 performs correction to add the video display period set by the video display period setting unit 28 to the tracking information related to the person to be tracked, and generates corrected tracking information. Processing is performed.
  • processing for displaying the video of the camera 1 as a moving image on the screen displayed on the monitor 7 is performed.
  • a process of displaying a timeline screen in a continuous playback state (continuous playback screen, see FIG. 11) on the monitor 7 is performed.
  • continuous playback screen for each camera 1 in which a person to be tracked is shown.
  • Continuous playback is performed in which video is displayed as a moving image sequentially as time passes.
  • the screen generation unit 30 generates a screen to be displayed on the monitor 7, and specifically, a person search screen (tracking target search screen) (FIGS. 6 and 7) according to an instruction from the tracking target setting unit 24. And a timeline screen in a confirmation video display state (see tracking target confirmation screen, see FIG. 10) is generated in response to an instruction from the confirmation video presentation unit 25, and in response to an instruction from the candidate video presentation unit 26 A timeline screen in a candidate video display state (candidate selection screen, see FIG. 13) is generated, and a timeline screen in a continuous playback state (continuous playback screen, see FIG. 11) is generated in response to an instruction from the video playback unit 29. .
  • the PC 3 is realized by causing the processor (CPU) of the PC 3 to execute a tracking support program (instruction) stored in a memory such as an HDD.
  • a tracking support program instruction
  • These programs are pre-installed in the PC 3 as an information processing device and configured as a dedicated device, or recorded in an appropriate program recording medium as an application program that operates on a predetermined OS, and via a network, It may be provided to the user.
  • FIG. 4 is an explanatory diagram showing the transition state of the screen displayed on the monitor 7.
  • FIG. 5 is a flowchart showing a procedure of processing performed in each part of the PC 3 in accordance with the operation of the supervisor performed on each screen.
  • This person search screen specifies the date and time when the person who you want to track has performed a problematic act such as shoplifting, and the place where the person you want to track has performed the problematic action or the person is assumed to have passed
  • the camera 1 that captures the area is specified, the video in which the person to be tracked is found, the person to be tracked is specified on the video, and the date and the camera 1 are specified and displayed. If a person to be tracked is shown in the captured video, an operation of selecting a person frame displayed on the person and designating the person as a tracking target is performed by the monitor (Yes in ST102).
  • This person search screen includes a person search screen by a single camera and a person search screen by a plurality of cameras.
  • the person search screen by a single camera displays a video of a single camera 1 and is a person to be tracked.
  • the person search screen using a plurality of cameras displays images from a plurality of cameras 1 and searches for an image showing a person to be tracked.
  • a camera selection operation is performed on these person search screens, a transition is made to a single camera selection screen or a multiple camera selection screen.
  • the supervisor can select one camera 1 that displays an image on the person search screen.
  • the supervisor can select a plurality of cameras 1 that display images on the person search screen.
  • the screen returns to the person search screen, and the video of the selected camera is displayed on the person search screen.
  • the tracking target setting unit 24 performs processing for setting the person designated by the monitor as the tracked target (ST103).
  • the initial tracking information generation unit 32 sequentially selects a person with the highest link score from the persons detected and tracked in the in-camera tracking process for each camera 1 for each camera, and generates initial tracking information. Performed (ST104).
  • the confirmation video presentation unit 25 based on the initial tracking information, a video that is most likely to be a person to be tracked is extracted as a confirmation video for each camera 1, and the confirmation video is displayed.
  • a process of displaying a timeline screen in the confirmation video display state (tracking target confirmation screen, see FIG. 10) on the monitor 7 is performed (ST105).
  • the timeline screen (tracking target confirmation screen) in this confirmation video display state is used to allow the observer to check whether there is an error in the tracking information between cameras (initial tracking information) using the confirmation video. If all the confirmation videos displayed on the timeline screen are correct, that is, if the person to be tracked is shown in all the confirmation videos and the person frame is displayed on the person, it is continuous An operation for instructing reproduction is performed by the supervisor (Yes in ST106), and a transition is made to a timeline screen (continuous reproduction screen, see FIG. 11) in a continuous reproduction state (ST107).
  • a confirmation video with an error is found in multiple confirmation videos displayed on the timeline screen (tracking target confirmation screen) in the confirmation video display state, that is, one of the confirmation videos is set as the tracking target. If the person is not shown or the person to be tracked is shown, but the person frame indicating the tracked object is displayed on a different person from the person to be tracked, select the confirmation video and An operation for instructing the display of the candidate video is performed by the supervisor (Yes in ST108).
  • the candidate selection unit 33 performs a process of selecting a predetermined number of persons having a lower link score than the person corresponding to the confirmation video from the top, and the candidate video presentation unit 26 selects the video of the person selected by the candidate selection unit 33. Is extracted as a candidate video, and a process of causing the monitor 7 to display a timeline screen (candidate selection screen, see FIG. 13) in a candidate video display state in which the candidate videos are displayed side by side is performed (ST109).
  • the timeline screen (candidate selection screen) in this candidate video display state a predetermined number of videos that are the second highest after the confirmation video that is likely to be the person to be tracked are displayed from the top. Note that the person with the highest link score and the person after the next rank may have been shot by the same camera, and the candidate video may be the same camera as the confirmation video.
  • candidate videos displayed on the timeline screen in this candidate video display state there is an appropriate candidate video, that is, a candidate video in which a person to be tracked is found and a person frame is displayed on the person If it has been selected, an operation for selecting the candidate video is performed by the supervisor (Yes in ST110).
  • the tracking information correction unit 34 of the inter-camera tracking processing unit 22 performs tracking so that the person corresponding to the candidate video selected on the timeline screen in the candidate video display state is associated with the person designated as the tracking target first. Processing for correcting the information is performed (ST111). Then, the screen returns to the timeline screen (tracking target confirmation screen) in the confirmation video display state (ST107). In this timeline screen, the result of correcting the tracking information is reflected, that is, the confirmation video on the timeline screen is a candidate video. It is replaced with and displayed.
  • the person addition search screen includes a person addition search screen by a single camera and a person addition search screen by a plurality of cameras.
  • a camera selection operation is performed on these person addition search screens, a transition is made to a single camera selection screen or a multiple camera selection screen.
  • camera 1 is selected on these screens, the screen returns to the person addition search screen and this person addition is performed.
  • the video of the selected camera is displayed on the search screen.
  • this person search screen if a video showing the person to be tracked is found and a person frame is displayed for that person, that is, if tracking within the camera related to the person to be tracked is successful In this case, an operation for selecting the person frame is performed by the supervisor (Yes in ST114). Then, the tracking information correction unit 34 of the inter-camera tracking processing unit 22 performs a process of correcting the tracking information so as to associate the person selected on the person addition search screen with the person first designated as the tracking target (ST111). ). Then, the screen returns to the timeline screen in the confirmation video display state (ST105). In this timeline screen, the result of correcting the tracking information is reflected. That is, the confirmation video on the timeline screen is designated on the person search screen. It is replaced with a person's video and displayed.
  • an operation for specifying a candidate video, an operation for finding and specifying a person to be tracked, or a tracking target An operation for inputting a video display period in which the person shown in the video is displayed is performed by the supervisor, and these operations are repeated until there is no erroneous confirmation video.
  • an operation to instruct continuous playback is performed by the supervisor (Yes in ST106), and a timeline screen (continuous playback screen) in a continuous playback state (FIG. 11) is displayed on the monitor 7 (ST107).
  • FIG. 4 is explanatory diagrams showing a person search screen by a single camera and a person search screen by a plurality of cameras displayed on the monitor 7, respectively.
  • the person search screen (tracking target search screen) is a video in which a person to be tracked is designated by specifying the date and time when the person who wants to track has performed a problematic act such as shoplifting. And a person to be tracked is designated on the video, and a search date and time designation unit 41, a search camera designation unit 42, a video display unit 43, and a playback operation unit 44 are provided. Yes.
  • the supervisor designates the date and time that is the center of the period in which the person to be tracked is assumed to be captured.
  • search date (designation part) 45 is operated by designating the date and time in the search date and time designation unit 41, the video of the designated date and time is displayed on the video display unit 43.
  • the supervisor selects the camera 1 according to the search mode (single camera mode and multiple camera mode).
  • the search mode single camera mode
  • a single camera 1 is designated and a video showing a person to be tracked is searched from the video of the single camera 1.
  • the multiple camera mode a plurality of cameras 1 are selected. By designating, a video in which a person to be tracked is captured is searched for from the video for each of the plurality of cameras 1.
  • the search camera designation unit 42 includes a search mode selection unit (radio button) 46, a camera selection unit 47, a map display button 48, and a camera selection button 49.
  • the search mode selection unit 46 selects either the single camera mode or the multiple camera mode.
  • the camera selection unit 47 selects a single camera 1 from the pull-down menu.
  • a single camera selection screen (see FIG. 8) is displayed, and the position of the selected camera can be confirmed on this single camera selection screen. It can also be changed to 1.
  • a multiple camera selection screen (see FIG. 9) is displayed, and a plurality of cameras 1 can be selected on the multiple camera selection screen.
  • Information regarding the selection state of the search mode (single camera mode and multiple camera mode) and the selection state of the camera 1 is held in an information holding unit (not shown),
  • the person search screen by a single camera or the person search screen by a plurality of cameras is displayed with the camera 1 as it is.
  • the search button 45 When the single camera mode is selected, the date and time and the camera are specified, and the search button 45 is operated, the person search screen by a single camera shown in FIG. 6 is displayed. The video of the designated single camera 1 is displayed on the display unit 43. On the other hand, when the multiple camera mode is selected, the date / time and the camera are specified, and the search button 45 is operated, a person search screen by a plurality of cameras shown in FIG. 7 is displayed. The video of the plurality of designated cameras 1 is displayed side by side on the unit 43.
  • the video display unit 43 displays the video of the camera 1, the name of the camera 1, the date and time, that is, the video shooting time.
  • the video display unit 43 displays a person frame 51 in the image area of the person detected from the video displayed here, that is, the person who is the subject of the in-camera tracking process, By performing an operation of selecting the person frame 51, the person is set as a tracking target. Note that a person frame is similarly displayed on the video of the camera 1 in the person search screen using a plurality of cameras shown in FIG.
  • the playback operation unit 44 performs operations related to playback of the video displayed on the video display unit 43.
  • the playback operation unit 44 includes buttons 52 for playback, reverse playback, stop, fast forward, and rewind. By operating these buttons 52, the video can be viewed efficiently, and a video showing a person to be tracked can be found efficiently.
  • the playback operation unit 44 is provided with a slider (display time adjustment unit) 53 for adjusting the display time of the video displayed on the video display unit 43.
  • a slider display time adjustment unit
  • By operating the slider 53 a desired time is displayed. You can switch to the video.
  • an operation (drag) for moving the slider 53 is performed using the input device 6 such as a mouse, an image at the time indicated by the slider 53 is displayed on the video display unit 43.
  • the slider 53 is provided so as to be movable along the bar 54, and the bar 54 defines a display time adjustment range centered on the time designated by the search date and time designation unit 41.
  • the reproduction operation unit 44 is provided with an adjustment range designation button (adjustment range designation unit) 55, and the adjustment range designation button 55 allows the movement range of the slider 53 defined by the bar 54, that is, the display time.
  • the adjustment range can be specified. In the example shown in the figure, the display time adjustment range can be switched between 1 hour and 6 hours.
  • FIG. 8 is an explanatory diagram showing a single camera selection screen displayed on the monitor 7.
  • the search mode selection unit 46 When the single camera mode is selected by the search mode selection unit 46 on the person search screen (see FIGS. 6 and 7) and the map display button 48 is operated, the single camera selection screen shown in FIG. 8 is displayed.
  • the supervisor selects one camera to display video on the person search screen (see FIG. 6) by a single camera, and shows the layout in the store (the state of the monitoring area).
  • a camera icon (video showing the camera 1) 62 for each of the plurality of cameras 1 is displayed in a superimposed manner.
  • the camera icon 62 is displayed so as to be tilted so as to indicate the shooting direction of the camera 1, so that the supervisor can roughly grasp the shooting area of the camera 1.
  • the camera icon 62 When the camera icon 62 is selected on this single camera selection screen, the camera icon 62 changes to a selected state.
  • the camera selection unit 47 on the person search screen (see FIG. 6) is selected and the map display button 48 is operated, the camera icon 62 relating to the selected camera is selected on this single camera selection screen. It is displayed in the state, the position of the selected camera can be confirmed, and further, it can be changed to another camera 1.
  • camera setting information related to the coordinates and orientation of the camera icon 62 and the image information of the camera icon 62 according to the presence / absence of selection are held in an information holding unit (not shown). Based on these information, A camera icon 62 corresponding to the presence / absence of selection is displayed at a position and orientation corresponding to the actual arrangement state of the camera 1.
  • FIG. 9 is an explanatory diagram showing a multiple camera selection screen displayed on the monitor 7.
  • the multiple camera mode is selected by the search mode selection unit 46 on the person search screen (see FIGS. 6 and 7) and the camera selection button 49 is operated, the multiple camera selection screen shown in FIG. 9 is displayed.
  • the supervisor selects a plurality of cameras for displaying video on the multiple camera person search screen (see FIG. 7).
  • the selected cameras 1 are displayed in a list.
  • the camera selection unit 66 is the same as the single camera selection screen shown in FIG.
  • the camera icon 62 is selected by the camera selection unit 66, the camera 1 corresponding to the selected camera icon 62 is added to the selected camera list display unit 65.
  • the camera 1 is selected with the check box 67 and the delete button 68 is operated, the selected camera 1 is deleted.
  • the enter button 69 is operated, the camera 1 displayed on the selected camera list display unit 65 is determined as the camera 1 to be displayed on the person search screen (see FIG. 7), and the video of the camera 1 is displayed on the person search screen. Is done.
  • FIG. 10 is an explanatory diagram showing a timeline screen in a confirmation video display state displayed on the monitor 7.
  • a timeline screen in a confirmation video display state shown in FIG. 10 is displayed.
  • the timeline screen in this confirmation video display state displays the video of each camera that is most likely to show the person specified as the tracking target on the person search screen as the confirmation video.
  • a monitor is made to confirm whether there is an error in (initial tracking information), and a video display unit 71, a reproduction operation unit 44, and a map display button 72 are provided.
  • the playback operation unit 44 is the same as the person search screen (see FIGS. 6 and 7), but is used when displaying video as a moving image on the timeline screen (see FIG. 11) in the continuous playback state. This will be described in detail later.
  • the video display unit 71 is provided with a confirmation video display unit 73 and a candidate video display unit 74.
  • the candidate video display unit 74 displays a video on a timeline screen (see FIG. 13) in a candidate video display state, and will be described in detail later.
  • the confirmation video display unit 73 displays the confirmation videos arranged in the order of the photographing times, and the confirmation video from the start of tracking after entering the monitoring area (in the store) until the exit of the monitoring area is the photographing time. Are displayed side by side from the left.
  • the confirmation video display unit 73 displays the photographing time of each confirmation video and the name of the camera 1 that photographed each confirmation video.
  • a confirmation image of the tracking start time at which the camera 1 starts tracking in the camera is displayed as a still image. If there is no error in the confirmation video, it is possible to shift to continuous playback according to the operation of the playback operation unit 44.
  • the confirmation video a person frame is displayed on the person detected and tracked in the confirmation video, as in the person search screen (see FIG. 6).
  • the confirmation video display unit 73 also displays a tracking target designation video, that is, a video in which a person is designated as a tracking target on the person search screen (see FIGS. 6 and 7) so that the tracking target designation video can be identified.
  • a frame image representing the tracking target designation video may be displayed.
  • a frame image representing a confirmed state may be displayed on the confirmed confirmation video.
  • the video display unit 71 is provided with a first scroll bar (scroll operation unit) 75.
  • the first scroll bar 75 slides and displays the confirmation video in the arrangement direction of the confirmation video, that is, in the horizontal direction when all the confirmation video does not fit in the confirmation video display part (confirmation video display area) 73.
  • the confirmation image can be slid in the horizontal direction, and by clicking on the arrow (left and right arrows) 75b, the confirmation image is displayed along with the knob 75a in one unit (confirmation image 1). Can only slide.
  • a confirmation video display screen (not shown) for displaying the confirmation video in an enlarged manner is displayed in a separate window. You can observe the confirmation video in detail.
  • the confirmation video displayed on the confirmation video display unit 73 is designated as the tracking target by determining whether or not the confirmation video is the person designated as the tracking target.
  • the monitoring person can confirm whether or not there is an error in the inter-camera tracking information (initial tracking information) regarding the selected person. If there is an error in the tracking information between cameras, the person to be tracked is not shown in the confirmation video, or the person to be tracked is shown, but the person frame is different from the person to be tracked. Is displayed, and it is possible to determine whether there is an error in the inter-camera tracking information by viewing this confirmation video.
  • FIG. 11 is an explanatory diagram showing a timeline screen in a continuous reproduction state displayed on the monitor 7.
  • the timeline screen in the continuous playback state has substantially the same configuration as the timeline screen in the confirmation video display state (see FIG. 10), but is displayed on the confirmation video display unit 73 in the timeline screen in the continuous playback state.
  • the confirmation video is continuously displayed as a moving image as time passes.
  • a frame image 76 indicating that playback is in progress is displayed on the confirmation video being played back.
  • the moving range of the slider 53 that adjusts the display time of the confirmation video displayed on the video display unit 71, that is, the start point (left end) of the bar 54 that defines the adjustment range of the display time is taken.
  • the start time of the confirmation video with the oldest time becomes the end time (right end) of the bar 54, and the end time of the confirmation video with the latest shooting time.
  • the video display period in which the video of each camera is displayed as a moving image is a period in which a person frame is displayed, that is, a period in which a person is detected and tracked by in-camera tracking for each camera.
  • the video display period does not match between the previous and next videos, that is, if there is a time lag between the end time of the previous video and the start time of the subsequent video, the video display will not be interrupted.
  • a process of connecting the video display periods in time by extending the period back and forth is performed.
  • the video display periods overlap between the previous and next videos. In this case, the playback is performed in parallel on the previous and next videos. Thereby, at the time of continuous reproduction, one or two videos are always being reproduced.
  • the confirmation video is displayed side by side starting from the oldest shooting time, so the confirmation video is played back in order from the left during continuous playback. If the confirmation video does not fit in the confirmation video display unit 73, a process of automatically sliding the confirmation video at an appropriate timing is performed, so that all confirmation videos are continuously displayed without any special operation by the monitor. You can view the situation being played. Further, when an operation (right-click) for selecting a confirmation image on the confirmation image display unit 73 is performed, a confirmation image display screen (not shown) for displaying the confirmation image in an enlarged manner is displayed in a separate window. The confirmation video can be enlarged and displayed as a video.
  • the enlarged display is enabled for all subsequent confirmation videos. It is preferable that the enlarged video is continuously reproduced in one or two separate windows.
  • FIG. 12 is an explanatory diagram showing a camera position confirmation screen displayed on the monitor 7.
  • This camera position confirmation screen is used to confirm the position of the camera 1 that has captured the video being played on the timeline screen in the continuous playback state, and in the same manner as the camera selection screen (see FIG. 8), A camera icon (video showing a camera) 62 for each of the plurality of cameras 1 is superimposed on the map image 61 indicating the status of the monitoring area), and the camera icon 62 corresponding to the camera 1 being played They are displayed in different display forms such as changing the display color so as to be distinguishable from the camera icon 62 corresponding to the camera 1.
  • the display of the camera position confirmation screen can be similarly performed on the timeline screen (see FIG. 10) in the confirmation video display state.
  • the confirmation video is selected on the timeline screen in the confirmation video display state and the map display button is displayed.
  • the position of the camera 1 that has captured the selected confirmation video is displayed on the camera position confirmation screen.
  • FIG. 13 is an explanatory diagram showing a timeline screen in a candidate video display state displayed on the monitor 7.
  • This timeline screen (candidate selection screen) in the candidate video display state shows a person to be tracked when there is an error in the confirmation video displayed on the timeline screen (see FIG. 10) in the confirmation video display state.
  • the video having the next highest possibility of the confirmation video is displayed as a candidate video, and the supervisor is selected.
  • the timeline screen in the candidate video display state is substantially the same as the timeline screen in the confirmation video display state (see FIG. 10), but below the confirmation video selected as having an error in the candidate video display unit 74.
  • a predetermined number of candidate videos are displayed in a line from the top in descending order of link score.
  • a frame image 77 indicating the selection state is displayed in a predetermined display color (for example, yellow) on the confirmation video. .
  • the video display unit 71 is provided with a second scroll bar (scroll operation unit) 78.
  • the second scroll bar 78 slides and displays the candidate videos in the arrangement direction of the candidate videos, that is, in the vertical direction when all the candidate videos do not fit in the candidate video display unit (candidate video display area) 74.
  • the knob 78a is dragged, the candidate video can be slid in the vertical direction, and by clicking an arrow (up and down arrow) 78b, the candidate video is moved together with the knob 78a in one direction (candidate video 1). Can only slide.
  • the candidate video display state timeline screen there is an appropriate candidate video among the candidate videos displayed on the candidate video display unit 74, that is, a candidate video in which a person to be tracked is found, and When a person frame is displayed for the person, an operation (left click) for selecting the candidate video is performed by the supervisor.
  • a person corresponding to the candidate video selected on the timeline screen in the candidate video display state is tracked on the person search screen (see FIGS. 6 and 7). Processing for correcting the tracking information is performed so as to be associated with the person specified in. Then, a timeline screen (see FIG. 10) in the confirmation video display state is displayed on the monitor 7 in a state where the result of correcting the tracking information is reflected.
  • the timeline screen in the confirmation video display state reflects the result of correcting the tracking information, that is, the confirmation video selected as having an error in the timeline screen in the confirmation video display state is the candidate video display state.
  • the video is replaced with the candidate video selected on the timeline screen.
  • the confirmation video before and after the confirmation video with the error may be changed with the candidate video. That is, the tracking information correction unit 34 performs a process of sequentially selecting the person with the highest link score for each camera 1 starting from the person corresponding to the candidate video, and the person selected here becomes the confirmation video. If the person is different from the corresponding person, the person is exchanged, and the confirmation video is changed accordingly.
  • the tracking information correction unit 34 corrects the tracking information, the person set by the tracking target setting unit 24, the person corresponding to the confirmation video on which the confirmation operation has been performed by the supervisor, and the confirmation that there is already an error. Since the person corresponding to the candidate video replaced with the video is excluded from the target, the confirmation video regarding those persons is not changed.
  • an appropriate candidate video is selected on the timeline screen in the candidate video display state, but a person frame on the candidate video may be selected. In this way, it is possible to avoid the tracking information being corrected by an incorrect person.
  • FIG. 14 and 15 are explanatory diagrams respectively showing a person addition search screen by a single camera and a person addition search screen by a plurality of cameras displayed on the monitor 7.
  • the person addition search screen (tracking target addition search screen) shown in FIGS. 14 and 15 is used when there is no suitable candidate video among the candidate videos displayed on the timeline screen (see FIG. 13) in the candidate video display state. In this case, a person is searched by playing back a video of a period corresponding to a confirmation video having an error.
  • a predetermined number of videos of a person with the next highest link score after the person in the confirmation video are displayed as candidate videos from the top. If there is nothing in the figure that shows the person to be tracked, that is, if the person to be tracked is not among those with a relatively high score, this additional person search screen will display an erroneous confirmation video. In the corresponding period, a person to be tracked can be found out of persons having a low link score.
  • This person addition search screen (tracking target addition search screen) is similar to the person search screen (see FIGS. 6 and 7) and includes a search date and time designation unit 41, a search camera designation unit 42, and a video display unit 43. , A playback operation unit 44 is provided, and a video display period designating unit 81 is further provided on this person addition search screen.
  • the search date and time designation unit 41 designates the search time in the same manner as the person search screen (see FIGS. 6 and 7), but confirms that there is an error in the timeline screen (see FIG. 13) in the candidate video display state.
  • the search date and time designation unit 41 displays the confirmation video after the confirmation video selected as having an error.
  • the start time of the confirmation video is displayed, and the video at that time is displayed on the video display unit. Note that the end time of the confirmation video before the selected confirmation video may be displayed. If it is desired to change the search time, another time may be input to the search date and time designation unit 41 and the search button 45 may be operated.
  • the search camera designation unit 42 is the same as the person search screen (see FIGS. 6 and 7), but in the initial state of the person addition search screen, the same camera 1 video as the selected confirmation video is displayed. If a person to be tracked cannot be found from the video of the same camera 1, another camera 1 may be selected by the search camera designation unit 42.
  • the playback operation unit 44 is the same as the person search screen (see FIGS. 6 and 7).
  • the moving range of slider 53 (display time adjustment range) is a period before the start time of the subsequent confirmation video. That is, the playback time is adjusted by operating the slider 53 during the period (1 hour or 6 hours) designated by the adjustment range designation button 55, with the start time of the subsequent confirmation video as the end point (right end) of the bar 54. Can do.
  • the person search screen when a video showing the person to be tracked is found and a person frame is displayed on the person, that is, in the period corresponding to the confirmation video with the error,
  • the person frame is selected to complete the specification of the search person.
  • the tracking information correction unit 34 of the inter-camera tracking processing unit 22 corrects the tracking information so that the person selected on the person addition search screen is associated with the person first designated as the tracking target.
  • the timeline screen (see FIG. 10) in the confirmation video display state is displayed on the monitor 7 in a state where the correction result of the tracking information is reflected.
  • the result of correcting the tracking information is reflected, that is, the confirmation video selected as having an error in the timeline screen in the confirmation video display state is displayed on the person search screen. It is replaced with the video of the selected person and displayed.
  • the confirmation video having an error is replaced with another person's video
  • the confirmation video before and after that may be changed. This is the same as when a candidate video is selected on the timeline screen (see FIG. 13) in the candidate video display state.
  • the monitor can specify the period in which the person to be tracked is shown as the video display period instead of selecting the person.
  • the person addition search screen is provided with a video display period designation unit 81.
  • the supervisor designates the period during which the person to be tracked is in the video as the video display period.
  • the video display period is defined by a start time and an end time.
  • the video display period designating unit 81 includes a start time input unit 83, an end time input unit 84, a start time determination button 85, an end time determination button 86, Is provided.
  • the setting cancel button 82 is a setting canceling operation button used when the start time and end time are specified again.
  • the tracking information is corrected so that the video display period is added to the tracking information, and the confirmation video display state timeline screen (see FIG. 10) is returned to.
  • the video of the video display period specified on the person search screen is displayed as the confirmation video.
  • the video at the start time of the video display period is displayed as a still image.
  • the tracking information of the person to be tracked is interrupted, so the confirmation video replaced with the video of the specified video display period is blank.
  • the camera 1 is switched as necessary on the person addition search screen to search for an image in which the person to be tracked is captured, and the video display period is set step by step. You can specify.
  • a video showing a person to be tracked is searched for on the person search screen and a person frame is displayed on the person to be tracked in the video, the person frame can be selected and a person can be specified. In this case, tracking between cameras based on the link score is performed to generate tracking information.
  • the tracking information generated in this way is in a state in which the missing portion of the tracking information generated by inter-camera tracking is interpolated in the video display period designated on the person addition search screen. Thereby, when performing continuous playback on the timeline screen in the continuous playback state (see FIG. 11), it is possible to play back the video of the person to be tracked without interruption.
  • the start time and the end time may be input based on the shooting time displayed on the video display unit 43, but the start time setting operation is performed immediately after the person to be tracked appears in the video. For example, by operating the start time confirmation button 85, the start time is set, and the end time setting operation is performed immediately before the person to be tracked disappears from the video. For example, the end time confirmation button 86 is operated. Thus, the end time may be set.
  • the start time is set by the first click operation and the end time is set by the second click operation on the video screen for video reproduction.
  • the video display period in which the person to be tracked appears in the video can be accurately set without changing the line of sight by the supervisor.
  • FIG. 16 is an explanatory diagram showing another example of the timeline screen displayed on the monitor 7.
  • a confirmation video display unit 73 As another example of this timeline screen, a confirmation video display unit 73, a candidate video display unit 74, and a playback operation unit 44 are provided.
  • the reproduction operation unit 44 is the same as the timeline screen shown in FIG.
  • the confirmation video display unit 73 in another example of this timeline screen, the confirmation video is displayed in the order of the shooting time, as in the timeline screen shown in FIG.
  • the confirmation video is displayed in one column on the confirmation video display unit 73.
  • the confirmation video is displayed in two columns.
  • the confirmation video display unit 73 is provided with a first scroll bar (scroll operation unit) 75.
  • the first scroll bar 75 displays the confirmation video by sliding it in the vertical direction when all the confirmation videos do not fit in the confirmation video display unit 73. Further, when a confirmation video of the confirmation video display unit 73 is selected, a frame image 77 indicating the selection state is displayed on the confirmation video.
  • the candidate video display unit 74 displays a predetermined number of candidate videos from the highest link score.
  • the candidate video has a link score. They are displayed in order from the left in descending order.
  • the candidate video display unit 74 is provided with a second scroll bar (scroll operation unit) 78.
  • the second scroll bar 78 slides and displays candidate videos in the horizontal direction when all candidate videos do not fit in the candidate video display unit 74.
  • FIG. 16 shows the timeline screen in the candidate video display state, but the timeline screen in the confirmation video display state and the timeline screen in the continuous playback state are the same as the examples shown in FIGS. Only the confirmation video is displayed on the confirmation video display unit 73. When this confirmation video is selected, the candidate video is displayed on the candidate video display unit 74.
  • the tracking target setting unit 24 displays the video accumulated in the recorder 2 on the monitor 7 and responds to the operation input of the monitor who designates the person to be tracked on the video. Then, the designated person is set as the tracking target, and is the same as the person set as the tracking target based on the tracking information acquired by the confirmation video presentation unit 25 by the tracking processing on the video stored in the recorder 2. A video of a person with the highest possibility is extracted for each camera 1, and a tracking target confirmation screen on which only those videos are displayed as a confirmation video is displayed on the monitor 7.
  • a predetermined number of high-quality human images are extracted from the top, and a candidate selection screen on which those images are displayed as candidate videos is displayed on the monitor 7, and candidate videos corresponding to the person designated as the tracking target are displayed to the monitor. It was supposed to be selected.
  • the tracking information is corrected by simply selecting the candidate video, so that the tracking information can be corrected with a simple operation.
  • a plurality of confirmation videos are arranged and displayed in order of shooting time. According to this, since the confirmation video is arranged in order of the shooting time and displayed on the tracking target confirmation screen, the supervisor can check whether there is an error in the tracking result of the person to be tracked by simply looking at the confirmation video in order. It is possible to check the tracking result of the person more efficiently.
  • the tracking target setting unit 24 allows a monitor to select a plurality of cameras, displays the images for the selected plurality of cameras side by side on the screen, and monitors a person to be tracked. It was assumed that the person specified. According to this, since the images of a plurality of cameras that are assumed to have photographed the person to be tracked are displayed on the same screen, it is possible to efficiently perform the work of specifying the person to be tracked by the monitor. .
  • the first scroll bar that displays the confirmation videos by sliding them in the arrangement direction of the confirmation videos.
  • the operation unit 75 is provided on the tracking target confirmation screen. According to this, it is possible to confirm all confirmation videos within one screen, and it is possible to efficiently perform an operation for the supervisor to confirm whether there is an error in the tracking result of the person to be tracked.
  • Part) 78 is provided on the candidate selection screen. According to this, all candidate videos can be confirmed within one screen, and the work of selecting a candidate video by the supervisor can be performed efficiently.
  • the tracking target setting unit 24 monitors the tracking target search screen on which a video that matches the search condition is displayed according to the operation input of the monitor who inputs the search date and time regarding the shooting date and camera. Displayed on the tracking target search screen, and the supervisor searches the video in which the person to be tracked is shown, and the person to be tracked is designated by the monitor. According to this, since the video displayed on the tracking target search screen is narrowed down according to the shooting date and the search condition regarding the camera, the work of designating the person to be tracked can be efficiently performed.
  • the candidate selection screen is obtained by adding the candidate video display unit 74 for displaying the candidate video to the tracking target confirmation screen. According to this, since the candidate video is displayed on the same screen as the confirmation video, the work of selecting the candidate video by the supervisor can be performed while comparing with the confirmation video, and the work of selecting the candidate video by the supervisor is efficient. Can be done well.
  • the video playback unit 29 displays a continuous playback screen in which videos for each camera 1 related to a person set as a tracking target and a person associated with the same person are arranged in order of shooting time.
  • the video is displayed on the monitor 7 and on this continuous playback screen, the video for each camera 1 is continuously displayed as a moving image as time passes. According to this, since the person to be tracked can be tracked continuously, the monitor can easily confirm what action the person to be tracked has performed in the monitoring area.
  • the screen generation unit 30 determines the position of the camera 1 corresponding to the video being reproduced on the map image indicating the state of the monitoring area in accordance with the operation of the supervisor performed on the continuous reproduction screen.
  • the camera position confirmation screen to be displayed is displayed on the monitor 7. According to this, the position of the camera 1 that is being played back cannot be determined from the continuous playback screen alone, but the position of the camera 1 being played back can be easily confirmed by looking at the camera position confirmation screen. can do.
  • the tracking target addition setting unit 27 determines that there is an error when there is no candidate video corresponding to the person designated as the tracking target among the candidate videos displayed on the candidate selection screen. A video of a corresponding period is displayed on the monitor 7, and the designated person is additionally set as a tracking target in response to an operation input of the supervisor who designates the person to be tracked on the video, and a tracking information correction unit 34, the tracking information is corrected so that the person additionally set as the tracking target by the tracking target addition setting unit 27 is associated with the person set as the tracking target by the tracking target setting unit 24.
  • the person specified as the tracking target when there is no candidate video corresponding to the person specified as the tracking target in the candidate video displayed on the candidate selection screen, the person specified as the tracking target The specified period is set as the video display period according to the operation input of the supervisor who specifies the period in which the video appears in the video, and the video set by the video display period setting unit 28 in the tracking information correction unit 34 The display period is added to the tracking information. According to this, even if there is no candidate video corresponding to the person specified as the tracking target in the candidate video displayed on the candidate selection screen, the confirmation video with an error can be confirmed by specifying the video display period by the supervisor. Since the tracking information corresponding to is replaced with the video display period, it is possible to avoid the lack of tracking information. In particular, it is possible to avoid interruption of the video when performing continuous playback in which video for each camera is sequentially displayed as a moving image as time passes.
  • FIG. 17 is an explanatory diagram illustrating a transition state of screens displayed on the monitor 7 in the second embodiment.
  • 18, 19, 20, and 21 are explanatory diagrams illustrating map screens displayed on the monitor 7. Note that points not particularly mentioned here are the same as in the above embodiment.
  • the person search screens shown in FIGS. 6 and 7 are displayed as the tracking target search screen for designating the person to be tracked.
  • the tracking target search screen is displayed as the tracking target search screen.
  • the map screen of the tracking target search state is displayed.
  • the timeline screens shown in FIGS. 10 and 13 are displayed as the tracking target confirmation screen and the candidate selection screen.
  • the timeline screens shown in FIGS. 19 to 21 are displayed. The map screen is displayed.
  • the screen transitions to the map screen (tracking target confirmation screen) in the confirmation video display state. If a candidate display is selected after selecting a confirmation video with an error on the confirmation video display state map screen, a transition is made to the map screen (candidate selection screen) of the candidate video display state. When a candidate video is selected on the map screen in this candidate video display state, the screen returns to the map screen in the confirmation video display state, and a confirmation video reflecting the tracking information correction result is displayed. If manual person designation is selected, the screen transitions to a person addition search state map screen (tracking target addition search screen).
  • the screen When a person is selected on the map screen in the additional person search state, the screen returns to the map screen in the confirmation video display state, and a confirmation video reflecting the correction result of the tracking information is displayed.
  • the map screen continuously playback screen in the continuous playback state is displayed.
  • a video for each camera 1 is displayed on a map image showing the layout in the store (the state of the monitoring area), and the position of the camera 1 can be confirmed on this map screen. Therefore, the camera selection screen and the camera position confirmation screen are not required as in the first embodiment.
  • search date and time designation unit 41 a search date and time designation unit 41
  • video display unit 101 a video display unit 101
  • playback operation unit 44 a playback operation unit 44
  • a plurality of video display windows (video display frames) 102 for displaying videos for each camera 1 are arranged on a map image 61 indicating a layout in the store (a state of a monitoring area).
  • Each video display window 102 is arranged at a position that roughly corresponds to the shooting area of the camera 1, and the monitor displays which position in the monitoring area represented by the map image 61 is displayed on the video display window 102. It can be roughly grasped.
  • FIG. 18 shows a map screen (tracking target search screen) in the tracking target search state.
  • the search date / time specifying unit 41 specifies the date / time and the search button 45 is operated
  • the video of each camera 1 at the specified date / time is displayed in the video display window 102 of the video display unit 101.
  • the videos of all the cameras 1 are displayed in the video display window 102, and the supervisor looks at each video display window 102 to search for a person to be tracked and find the corresponding person.
  • an operation for selecting a person frame on the video in the video display window 102 in which the person is shown is performed.
  • FIG. 19 shows a map screen (tracking target confirmation screen) in a confirmation video display state.
  • the map screen in the confirmation video display state only the video of the camera 1 that is most likely to show the person to be tracked in the video display unit 101 is displayed in the video display window 102 as the confirmation video, and the other video.
  • the display window 102 is displayed in gray out.
  • the map screen in the confirmation video display state is displayed by narrowing down to the video of the camera 1 that is most likely to show the person to be tracked, so that the person tracking result confirmation operation is efficiently performed. be able to.
  • the confirmation video is incorrect in the menu displayed by selecting the video display window 102 and right-clicking. It can be determined that there is no. At this time, the display form of the frame image in the video display window 102 changes from the unconfirmed state (for example, green) to the confirmed state (for example, changed). On the other hand, if there is an error in the confirmation video displayed in the video display window 102, selecting the video display window 102 and selecting a candidate display from the menu displayed by right-clicking will result in FIG. 20 and FIG. A map screen of the candidate video display state shown is displayed.
  • 20 and 21 show a map screen (candidate selection screen) in a candidate video display state.
  • the candidate video is displayed on the same screen, and the candidate video display unit 112 is superimposed on the confirmation video selected as having an error, and is displayed on the candidate video display unit 112.
  • Multiple candidate videos are displayed side by side.
  • the candidate video is displayed on another screen, and the candidate display screen 113 is displayed in a pop-up on the map screen in the confirmation video display state.
  • the tracking information is corrected, and the selected candidate video is displayed on the video display window 102 as a confirmation video.
  • the video display window 102 in which the video is displayed also changes in accordance with the correction of the tracking information.
  • the map screen (continuous playback screen) in the continuous playback state shown in FIG. 17 is substantially the same as the map screen in the confirmation video display state shown in FIG. Are sequentially reproduced in the video display window 102. Also, the map screen in the tracking target additional search state shown in FIG. 17 is substantially the same as the map screen in the tracking target search state shown in FIG.
  • FIG. 22 is a flowchart showing a procedure of processes performed in each part of the PC 3 in the third embodiment.
  • FIG. 23 is a flowchart illustrating a procedure of processes performed by each unit of the PC 3 according to the fourth embodiment.
  • a retail store such as a supermarket
  • the present invention can be applied to a store having a business form other than a retail store such as a restaurant such as a family restaurant. It can be applied to facilities other than other stores.
  • the person corresponding to the confirmation video presented by the confirmation video presentation unit 25 based on the tracking information related to the person to be tracked corresponds to the candidate video presented by the candidate video presentation unit 26.
  • the tracking information is corrected by the tracking information correcting unit 34 so that the person or the person designated by the monitor on the video is replaced.
  • an incorrect tracking is performed. This includes simply deleting the information. In other words, if there is an error in the confirmation video but no suitable alternative video is found, the person corresponding to the confirmation video with the error is deleted from the tracking information.
  • FIGS. 1 and 3 an example in which the in-camera tracking process is performed by the in-camera tracking processing apparatus 4 and the inter-camera tracking process and the tracking support process are performed by the PC 3 will be described.
  • a configuration in which the in-camera tracking process is also performed by the PC 3 may be employed.
  • a configuration in which the camera tracking processing unit is provided in the camera 1 is also possible.
  • all or part of the inter-camera tracking processing unit 22 can be configured by a tracking processing device different from the PC 3.
  • the camera 1 is a box-type camera with a limited viewing angle.
  • the present invention is not limited to this, and an omnidirectional camera capable of shooting a wide range is used. You can also.
  • the in-camera tracking process and the tracking support process are performed by an apparatus provided in the store, but these necessary processes are provided in the headquarters as shown in FIG.
  • the PC 11 or the cloud computer 12 constituting the cloud computing system may perform the process.
  • the necessary processing is shared by a plurality of information processing apparatuses, and information is transferred between the plurality of information processing apparatuses via a communication medium such as an IP network or a LAN, or a storage medium such as a hard disk or a memory card. It may be.
  • the tracking support system is configured by a plurality of information processing apparatuses that share necessary processing.
  • a portable terminal such as a smartphone 13 or a tablet terminal connected to the cloud computer 12 in addition to the PCs 3 and 11 provided in the store or the headquarters.
  • necessary information can be confirmed at an arbitrary place such as a place to go besides the store or the headquarters.
  • the recorder 2 that stores the video of the camera 1 is installed in the store.
  • the PC 11 or the cloud computer 12 installed in the headquarters performs processing necessary for tracking the moving object.
  • the video of the camera 1 may be transmitted to the headquarters or the operating facility of the cloud computing system, and the video of the camera 1 may be stored in a device installed there.
  • the tracking support device, the tracking support system, and the tracking support method according to the present disclosure efficiently perform an operation for confirming whether there is an error in the tracking result of the moving object that is the tracking target, and the tracking result of the moving object has an error.
  • tracking information can be corrected by a simple operation, and the captured images for each of the plurality of cameras stored in the image storage means are displayed on the display device to track the mobile object to be tracked. This is useful as a tracking support device, a tracking support system, a tracking support method, and the like that support the work of a monitoring person.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

 追跡対象とした人物の追尾結果に誤りがないかの確認作業を効率よく行い、誤りがある追尾情報を簡単な操作で修正することができるようにする。 監視者の指定に応じて追跡対象となる人物を設定する追跡対象設定部(24)と、追尾情報に基づいて、追跡対象とした移動体と同一である可能性が最も高い移動体の映像をカメラ(1)ごとに抽出して、それらの映像のみを確認映像として表示させる確認映像提示部(25)と、確認映像に誤りがある場合に、追尾情報に基づいて、追跡対象とした移動体と同一である可能性が、誤りがある確認映像の移動体の次に高い移動体の映像を候補映像として表示させて、該当する候補映像を監視者に選択させる候補映像提示部(26)と、選択された候補映像に対応する移動体を、追跡対象とした移動体と対応づけるように追尾情報を修正する追尾情報修正部(34)と、を備えたものとする。

Description

追跡支援装置、追跡支援システムおよび追跡支援方法
 本開示は、画像蓄積手段に蓄積された複数のカメラごとの撮影画像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援装置、追跡支援システムおよび追跡支援方法に関するものである。
 監視エリア内に複数のカメラを設置し、この複数のカメラごとの映像を表示する監視画面をモニタに表示して、監視者に監視させる監視システムが広く普及している。このような監視システムでは、カメラの映像をレコーダに蓄積することで、万引きなどの問題のある行為を行った人物が監視エリア内でどのような行動を行ったかを監視者が事後に確認することができる。
 このように監視者が監視画面を見ながら人物を追跡する場合、人物が監視エリア内を移動するのに応じて、その人物を撮影するカメラが次々と切り替わるため、カメラごとの映像を順次確認する必要がある。
 そこで、モニタの表示画面にカメラごとの映像を表示する映像表示ウィンドウを設けて、この映像表示ウィンドウに監視者が追跡対象に指定した人物の映像を表示するとともに、モニタの表示画面に人物の進行経路を表示するようにした技術が知られている(特許文献1参照)。この技術では、進行経路が表示されるため、カメラを次々に代えながら追跡する作業を比較的簡単に行うことができ、追跡作業を行う監視者の負担をある程度軽減することができる。
特許第4759988号公報
 本開示の追跡支援装置は、映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援装置であって、映像蓄積手段に蓄積された映像を表示装置に表示させて、その映像上で追跡対象とする移動体を指定する監視者の操作入力に応じて、指定された移動体を追跡対象に設定する追跡対象設定部と、映像蓄積手段に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、追跡対象に設定された移動体と同一である可能性が最も高い移動体の映像をカメラごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面を表示装置に表示させる確認映像提示部と、追跡対象確認画面に表示された確認映像に誤りがある場合に、追尾情報に基づいて、追跡対象に設定された移動体と同一である可能性が、誤りがある確認映像に対応する移動体の次に高い移動体の映像を、上位から所定数抽出して、それらの映像が候補映像として表示された候補選択画面を表示装置に表示させて、追跡対象に指定した移動体に該当する候補映像を監視者に選択させる候補映像提示部と、候補選択画面で選択された候補映像に対応する移動体を、追跡対象に設定された移動体と対応づけるように追尾情報を修正する追尾情報修正部と、を備えた構成とする。
 また、本開示の追跡支援システムは、映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援システムであって、監視エリアを撮影するカメラと、このカメラごとの映像を表示する表示装置と、複数の情報処理装置と、を有し、複数の情報処理装置のいずれかが、映像蓄積手段に蓄積された映像を表示装置に表示させて、その映像上で追跡対象とする移動体を指定する監視者の操作入力に応じて、指定された移動体を追跡対象に設定する追跡対象設定手段と、映像蓄積手段に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、追跡対象に設定された移動体と同一である可能性が最も高い移動体の映像をカメラごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面を表示装置に表示させる確認映像提示部と、追跡対象確認画面に表示された確認映像に誤りがある場合に、追尾情報に基づいて、追跡対象に設定された移動体と同一である可能性が、誤りがある確認映像に対応する移動体の次に高い移動体の映像を、上位から所定数抽出して、それらの映像が候補映像として表示された候補選択画面を表示装置に表示させて、追跡対象に指定した移動体に該当する候補映像を監視者に選択させる候補映像提示部と、候補選択画面で選択された候補映像に対応する移動体を、追跡対象に設定された移動体と対応づけるように追尾情報を修正する追尾情報修正部と、を備えた構成とする。
 また、本開示の追跡支援方法は、映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する処理を情報処理装置に行わせる追跡支援方法であって、映像蓄積手段に蓄積された映像を表示装置に表示させて、その映像上で追跡対象とする移動体を指定する監視者の操作入力に応じて、指定された移動体を追跡対象に設定するステップと、映像蓄積手段に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、追跡対象に設定された移動体と同一である可能性が最も高い移動体の映像をカメラごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面を表示装置に表示させるステップと、追跡対象確認画面に表示された確認映像に誤りがある場合に、追尾情報に基づいて、追跡対象に設定された移動体と同一である可能性が、誤りがある確認映像に対応する移動体の次に高い移動体の映像を、上位から所定数抽出して、それらの映像が候補映像として表示された候補選択画面を表示装置に表示させて、追跡対象に指定した移動体に該当する候補映像を監視者に選択させるステップと、を備えた構成とする。
 本開示によれば、追跡対象とした移動体が写っている可能性が最も高いカメラの映像に絞り込んで表示されるため、移動体の追尾結果の確認作業を効率よく行うことができる。そして、追跡対象確認画面に表示された確認映像に誤りがある、すなわち、移動体の追尾結果に誤りがある場合には、追跡対象とした移動体が写っている可能性が確認映像の次に高い映像が候補映像として候補選択画面に表示されるため、監視者は候補映像を選択するだけで、追尾情報が修正されるため、簡単な操作で追尾情報を修正することができる。
図1は、第1実施形態に係る追跡支援システムの全体構成図である。 図2は、店舗におけるカメラ1の設置状況を示す平面図である。 図3は、PC3の概略構成を示す機能ブロック図である。 図4は、モニタ7に表示される画面の遷移状況を示す説明図である。 図5は、各画面で行われる監視者の操作に応じてPC3の各部で行われる処理の手順を示すフロー図である。 図6は、モニタ7に表示される単一カメラによる人物検索画面を示す説明図である。 図7は、モニタ7に表示される複数カメラによる人物検索画面を示す説明図である。 図8は、モニタ7に表示される単一カメラ選択画面を示す説明図である。 図9は、モニタ7に表示される複数カメラ選択画面を示す説明図である。 図10は、モニタ7に表示される確認映像表示状態のタイムライン画面を示す説明図である。 図11は、モニタ7に表示される連続再生状態のタイムライン画面を示す説明図である。 図12は、モニタ7に表示されるカメラ位置確認画面を示す説明図である。 図13は、モニタ7に表示される候補映像表示状態のタイムライン画面を示す説明図である。 図14は、モニタ7に表示される単一カメラによる人物追加検索画面を示す説明図である。 図15は、モニタ7に表示される複数カメラによる人物追加検索画面を示す説明図である。 図16は、モニタ7に表示されるタイムライン画面の別例を示す説明図である。 図17は、第2実施形態においてモニタ7に表示される画面の遷移状況を示す説明図である。 図18は、モニタ7に表示される追跡対象検索状態のマップ画面を示す説明図である。 図19は、モニタ7に表示される確認映像表示状態のマップ画面を示す説明図である。 図20は、モニタ7に表示される候補映像表示状態のマップ画面を示す説明図である。 図21は、モニタ7に表示される候補映像表示状態のマップ画面を示す説明図である。 図22は、第3実施形態におけるPC3の各部で行われる処理の手順を示すフロー図である。 図23は、第4実施形態におけるPC3の各部で行われる処理の手順を示すフロー図である。
 実施の形態の説明に先立ち、従来の技術における問題点を簡単に説明する。さて、追跡対象に指定した人物に関するカメラごとの映像をモニタの表示画面に順次表示させるには、画像認識技術を用いて人物を追尾する処理を装置に行わせることになるが、この追尾処理において、追跡対象に指定した人物の追尾が失敗して、人物が別人に入れ替わるなど、追尾結果に誤りが生じる場合があり、このように追尾結果に誤りが生じると、人物の追跡の作業に支障を来すことから、追尾結果に誤りがないかを確認する作業が必要になる。特に、広域の監視エリアを対象にした大規模な監視システムでは、数十台あるいは数百台といった多数の監視カメラが用いられることから、追尾結果の確認作業が極めて煩雑になる。そこで、追尾結果の確認作業を効率よく行うことができる技術が望まれる。
 しかしながら、前記の特許文献1に開示された技術では、画面内のいずれかの映像表示ウィンドウに追跡対象とした人物が常に写る、すなわち、追跡対象とした人物の映像が監視エリア内の移動経路の全体を通して漏れなく画面に表示されるものではないため、追跡対象とした人物の追尾結果の確認作業を効率よく行うことができるものではなく、特にカメラの台数が増えると、作業が非常に煩雑になるという問題があった。また、人物の追尾結果に誤りがある場合には、この従来技術ではなんら有効な対応ができず、監視者の負担を軽減する支援処理を適切に行うことができないという問題があった。
 本開示は、このような従来技術の問題点を解消するべく案出されたものであり、その主な目的は、追跡対象とした移動体の追尾結果に誤りがないかを確認する作業を効率よく行うとともに、移動体の追尾結果に誤りがある場合に、簡単な操作で追尾情報を修正することができるように構成された追跡支援装置、追跡支援システムおよび追跡支援方法を提供することにある。
 前記課題を解決するためになされた第1の開示は、映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援装置であって、映像蓄積手段に蓄積された映像を表示装置に表示させて、その映像上で追跡対象とする移動体を指定する監視者の操作入力に応じて、指定された移動体を追跡対象に設定する追跡対象設定部と、映像蓄積手段に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、追跡対象に設定された移動体と同一である可能性が最も高い移動体の映像をカメラごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面を表示装置に表示させる確認映像提示部と、追跡対象確認画面に表示された確認映像に誤りがある場合に、追尾情報に基づいて、追跡対象に設定された移動体と同一である可能性が、誤りがある確認映像に対応する移動体の次に高い移動体の映像を、上位から所定数抽出して、それらの映像が候補映像として表示された候補選択画面を表示装置に表示させて、追跡対象に指定した移動体に該当する候補映像を監視者に選択させる候補映像提示部と、候補選択画面で選択された候補映像に対応する移動体を、追跡対象に設定された移動体と対応づけるように追尾情報を修正する追尾情報修正部と、を備えた構成とする。
 これによると、追跡対象とした移動体が写っている可能性が最も高いカメラの映像に絞り込んで表示されるため、移動体の追尾結果の確認作業を効率よく行うことができる。そして、追跡対象確認画面に表示された確認映像に誤りがある、すなわち、移動体の追尾結果に誤りがある場合には、追跡対象とした移動体が写っている可能性が確認映像の次に高い映像が候補映像として候補選択画面に表示されるため、監視者は候補映像を選択するだけで、追尾情報が修正されるため、簡単な操作で追尾情報を修正することができる。
 また、第2の開示は、追跡対象確認画面では、複数の確認映像が撮影時刻順に並べて表示される構成とする。
 これによると、確認映像が撮影時刻順に並べて追跡対象確認画面に表示されるため、監視者は確認映像を順に見ていくだけで、追跡対象とした移動体の追尾結果に誤りがないかを確認することができ、移動体の追尾結果の確認作業をより一層効率よく行うことができる。
 また、第3の開示は、追跡対象設定部は、複数のカメラを監視者に選択させて、その選択された複数のカメラごとの映像を画面に並べて表示させて、追跡対象とする移動体を監視者に指定させる構成とする。
 これによると、追跡対象とする移動体を撮影したものと想定される複数のカメラの映像が同一画面に表示されるため、追跡対象とする移動体を監視者が指定する作業を効率よく行うことができる。
 また、第4の開示は、複数の確認映像が追跡対象確認画面における確認映像の表示領域に収まりきらない場合に、確認映像の配列方向に確認映像をスライドさせて表示するスクロール操作部が追跡対象確認画面に設けられた構成とする。
 これによると、全ての確認映像を1画面内で確認することができ、追跡対象とした移動体の追尾結果に誤りがないかを監視者が確認する作業を効率よく行うことができる。
 また、第5の開示は、複数の候補映像が候補選択画面における候補映像の表示領域に収まりきらない場合に、候補映像の配列方向に候補映像をスライドさせて表示するスクロール操作部が候補選択画面に設けられた構成とする。
 これによると、全ての候補映像を1画面内で確認することができ、監視者が候補映像を選択する作業を効率よく行うことができる。
 また、第6の開示は、追跡対象設定部は、撮影日時およびカメラに関する検索条件を入力する監視者の操作入力に応じて、検索条件に適合する映像が表示された追跡対象検索画面を表示装置に表示させて、その追跡対象検索画面上で追跡対象とする移動体が写った映像を監視者に検索させて、追跡対象とする移動体を監視者に指定させる構成とする。
 これによると、撮影日時およびカメラに関する検索条件にしたがって、追跡対象検索画面に表示される映像が絞り込まれるため、追跡対象とする移動体を監視者が指定する作業を効率よく行うことができる。
 また、第7の開示は、候補選択画面は、追跡対象確認画面に、候補映像を表示させる候補映像表示部を付加したものである構成とする。
 これによると、候補映像が確認映像と同一画面に表示されるため、監視者が候補映像を選択する作業を確認映像と比較しながら行うことができ、監視者が候補映像を選択する作業を効率よく行うことができる。
 また、第8の開示は、さらに、追跡対象に設定された移動体、およびその移動体と同一として対応づけられた移動体に関するカメラごとの映像が撮影時刻順に並べて表示された連続再生画面を表示装置に表示させ、この連続再生画面において、カメラごとの映像を、時間の経過にしたがって順次動画で表示させる連続再生を行う映像再生部を備えた構成とする。
 これによると、追跡対象とした移動体を連続して追跡することができるため、追跡対象とした移動体が監視エリア内でどのような行動を行ったかを監視者が簡単に確認することができる。
 また、第9の開示は、さらに、連続再生画面上で行われる監視者の操作に応じて、監視エリアの状態を示す地図画像上に再生中の映像に対応するカメラの位置を表示するカメラ位置確認画面を表示装置に表示させる画面生成部を備えた構成とする。
 これによると、連続再生画面のみでは、再生中の映像がどの位置に設置されたカメラによるものかがわからないが、カメラ位置確認画面を見ることで、再生中のカメラの位置を簡単に確認することができる。
 また、第10の開示は、さらに、候補選択画面に表示された候補映像の中に、追跡対象に指定した移動体に該当する候補映像がない場合に、誤りがある確認映像に対応する期間の映像を表示装置に表示させて、その映像上で追跡対象とする移動体を指定する監視者の操作入力に応じて、指定された移動体を追跡対象に追加設定する追跡対象追加設定部を備え、追尾情報修正部は、追跡対象追加設定部で追跡対象に追加設定された移動体を、追跡対象設定部で追跡対象に設定された移動体と対応づけるように追尾情報を修正する構成とする。
 これによると、候補選択画面に表示された候補映像の中に、追跡対象に指定した移動体に該当する候補映像がない場合でも、追跡対象となる移動体を監視者が指定することで、誤りがある確認映像に対応する追尾情報が修正されるため、追尾情報の欠落を避けることができる。
 また、第11の開示は、さらに、候補選択画面に表示された候補映像の中に、追跡対象に指定した移動体に該当する候補映像がない場合に、追跡対象に指定した移動体が映像に出現している期間を指定する監視者の操作入力に応じて、指定された期間を映像表示期間として設定する映像表示期間設定部を備え、追尾情報修正部は、映像表示期間設定部で設定された映像表示期間を追尾情報に付加する構成とする。
 これによると、候補選択画面に表示された候補映像の中に、追跡対象に指定した移動体に該当する候補映像がない場合でも、映像表示期間を監視者が指定することで、誤りがある確認映像に対応する追尾情報が映像表示期間に置き換えられるため、追尾情報の欠落を避けることができる。特に、カメラごとの映像を時間の経過にしたがって順次動画で表示させる連続再生を行う際に、映像が途切れることを避けることができる。
 また、第12の開示は、映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援システムであって、監視エリアを撮影するカメラと、このカメラごとの映像を表示する表示装置と、複数の情報処理装置と、を有し、複数の情報処理装置のいずれかが、映像蓄積手段に蓄積された映像を表示装置に表示させて、その映像上で追跡対象とする移動体を指定する監視者の操作入力に応じて、指定された移動体を追跡対象に設定する追跡対象設定手段と、映像蓄積手段に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、追跡対象に設定された移動体と同一である可能性が最も高い移動体の映像をカメラごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面を表示装置に表示させる確認映像提示部と、追跡対象確認画面に表示された確認映像に誤りがある場合に、追尾情報に基づいて、追跡対象に設定された移動体と同一である可能性が、誤りがある確認映像に対応する移動体の次に高い移動体の映像を、上位から所定数抽出して、それらの映像が候補映像として表示された候補選択画面を表示装置に表示させて、追跡対象に指定した移動体に該当する候補映像を監視者に選択させる候補映像提示部と、候補選択画面で選択された候補映像に対応する移動体を、追跡対象に設定された移動体と対応づけるように追尾情報を修正する追尾情報修正部と、を備えた構成とする。
 これによると、第1の発明と同様に、追跡対象とした移動体の追尾結果に誤りがないかを確認する作業を効率よく行うとともに、追尾結果に誤りがある場合に、簡単な操作で追尾情報を修正することができる。
 また、第13の開示は、映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する処理を情報処理装置に行わせる追跡支援方法であって、映像蓄積手段に蓄積された映像を表示装置に表示させて、その映像上で追跡対象とする移動体を指定する監視者の操作入力に応じて、指定された移動体を追跡対象に設定するステップと、映像蓄積手段に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、追跡対象に設定された移動体と同一である可能性が最も高い移動体の映像をカメラごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面を表示装置に表示させるステップと、追跡対象確認画面に表示された確認映像に誤りがある場合に、追尾情報に基づいて、追跡対象に設定された移動体と同一である可能性が、誤りがある確認映像に対応する移動体の次に高い移動体の映像を、上位から所定数抽出して、それらの映像が候補映像として表示された候補選択画面を表示装置に表示させて、追跡対象に指定した移動体に該当する候補映像を監視者に選択させるステップと、を備えた構成とする。
 これによると、第1の開示と同様に、追跡対象とした移動体の追尾結果に誤りがないかを確認する作業を効率よく行うとともに、追尾結果に誤りがある場合に、簡単な操作で追尾情報を修正することができる。
 以下、実施の形態を、図面を参照しながら説明する。なお、本実施形態の説明では、「追跡」および「追尾」という同様の意味を持つ用語を使用しており、これは、単に説明の便宜上使い分けているに過ぎないが、「追跡」は、主として監視者の行為と関わりが強い場合に用いており、「追尾」は、主として装置で行われる処理と関わりが強い場合に用いている。
 (第1実施形態)
 図1は、第1実施形態に係る追跡支援システムの全体構成図である。この追跡支援システムは、スーパーマーケットやホームセンターなどの小売店舗などを対象にして構築されるものであり、カメラ1と、レコーダ(映像蓄積手段)2と、PC(追跡支援装置)3と、カメラ内追尾処理装置4と、を備えている。
 カメラ1は店舗内の適所に設置され、カメラ1により店舗内(監視エリア)が撮影され、このカメラ1で撮影された店舗内の映像がレコーダ2に録画される。
 PC3には、監視者が種々の入力操作を行うマウスなどの入力デバイス6と、監視画面を表示するモニタ(表示装置)7とが接続されている。このPC3は、店舗の警備室などに設置され、監視者(警備員)が、モニタ7に表示される監視画面で、カメラ1で撮影された店舗内の映像をリアルタイムで閲覧することができ、また、レコーダ2に録画された過去の店舗内の映像を閲覧することができる。
 なお、本部に設けられたPC11にも図示しないモニタが接続され、カメラ1で撮影された店舗内の映像をリアルタイムで閲覧し、また、レコーダ2に録画された過去の店舗内の映像を閲覧して、本部で店舗内の状況を確認することができる。
 カメラ内追尾処理装置4では、カメラ1の映像から検出された人物(移動体)を追尾して、人物ごとにカメラ内追尾情報を生成する処理が行われる。このカメラ内追尾処理には、公知の画像認識技術(人物検出技術および人物追跡技術など)を利用すればよい。
 なお、本実施形態では、カメラ内追尾処理装置4が、PC3とは独立して、カメラ内追尾処理を常時行うようにしているが、PC3からの指示に応じて追尾処理を実行するものとしてもよい。また、カメラ内追尾処理装置4では、映像から検出された全ての人物を対象にして追尾処理を行うことが望ましいが、追跡対象に指定された人物およびこれと関連度の高い人物に絞って追尾処理を行うようにしてもよい。
 次に、図1に示したカメラ1の店舗での設置状況について説明する。図2は、店舗におけるカメラ1の設置状況を示す平面図である。
 店舗内(監視エリア)には、商品陳列スペースの間に通路が設けられており、この通路を主に撮影するように複数のカメラ1が設置されている。
 店舗内の通路を人物が移動すると、カメラ1のいずれか1つあるいは複数で人物が撮影され、人物が移動するのに応じて、人物の撮影が次のカメラ1に引き継がれる。このとき、人物の撮影を引き継ぐカメラは、店舗内の通路の形態およびカメラ1の撮影エリアにより限定され、この人物の撮影が引き継がれる関係にあるカメラを、本実施形態では、連携関係を有するカメラと呼称する。このカメラの連携関係に関する情報は予め設定されて、カメラ連携情報としてPC3に保持されている。なお、カメラの連携関係に関する情報は、カメラ1の台数や設置場所などの変更に備え、システムの起動時などに各カメラ1の設置情報などをPC3により個別に取得し、各カメラの連携関係に関する情報を更新するようにしてもよい。
 次に、図1に示したPC3の概略構成について説明する。図3は、PC3の概略構成を示す機能ブロック図である。
 PC3は、追尾情報蓄積部21と、カメラ間追尾処理部22と、入力情報取得部23と、追跡対象設定部24と、確認映像提示部25と、候補映像提示部26と、追跡対象追加設定部27と、映像表示期間設定部28と、映像再生部29と、画面生成部30と、を備えている。
 追尾情報蓄積部21では、カメラ内追尾処理装置4で生成したカメラ内追尾情報が蓄積される。また、追尾情報蓄積部21では、カメラ間追尾処理部22で生成したカメラ間追尾情報が蓄積される。
 入力情報取得部23では、マウスなどの入力デバイス6を用いた監視者の入力操作に応じて、その入力操作に基づく入力情報を取得する処理が行われる。
 追跡対象設定部24では、レコーダ2に蓄積された映像を表示させた人物検索画面(追跡対象検索画面)をモニタ7に表示させて、その人物検索画面において追跡対象となる人物を監視者に指定させて、その指定された人物を追跡対象に設定する処理が行われる。
 カメラ間追尾処理部22は、リンクスコア算出部31と、初期追尾情報生成部32と、候補選択部33と、追尾情報修正部34と、を備えている。
 リンクスコア算出部31では、追尾情報蓄積部から各カメラ1に関するカメラ内追尾情報を取得して、各カメラ1に関するカメラ内追尾処理で検出追尾された人物同士で、同一人物である可能性の高さを表すリンクスコア(評価値)を算出する。この処理では、人物の検出時刻(フレームの撮影時刻)、人物の検出位置、人物の移動速度、人物像の色情報などに基づいてリンクスコアを算出する。
 初期追尾情報生成部32では、追跡対象設定部24で追跡対象に設定された人物を起点にして、連携関係にあるカメラ1に関するカメラ内追尾で追尾された人物の中から、リンクスコアが最も高い、すなわち、同一人物である可能性が最も高い人物をカメラ1ごとに順次選択して、それらの人物を同一人物として対応づけた初期追尾情報を生成する処理が行われる。
 具体的には、まず、人物検索画面で人物を追跡対象に指定したときの映像(追跡対象指定映像)を撮影したカメラ1と連携関係にあるカメラ1のカメラ内追尾で追尾された人物の中からリンクスコアが最も高い人物を選択し、次に、その選択された人物を撮影したカメラ1と連携関係にあるカメラ1のカメラ内追尾で追尾された人物の中からリンクスコアが最も高い人物を選択し、このような人物の選択を連携関係にあるカメラ1ごとに繰り返す。このような人物を選択する処理は、追跡対象指定映像より時間的に前および後の双方で行われ、最も高いリンクスコアが所定のしきい値以下になった時点で、追跡対象とした人物が監視エリア内に存在しないものと判断して、人物の選択を終了する。
 確認映像提示部25では、初期追尾情報生成部32で生成した初期追尾情報に基づいて、リンクスコアが最も高い人物の映像、すなわち、追跡対象とした人物が写っている可能性が最も高い映像を確認映像としてカメラ1ごとに抽出して、その確認映像を提示する、具体的には、確認映像が撮影時刻順に並べて表示された確認映像表示状態のタイムライン画面(追跡対象確認画面、図10参照)をモニタ7に表示させる処理が行われる。
 カメラ間追尾処理部22の候補選択部33では、確認映像提示部25により提示された確認映像に誤りがある、すなわち、初期追尾情報生成部32で生成した初期追尾情報に誤りがある場合に、その誤りがある確認映像に対応する期間においてカメラ内追尾で追尾された人物の中から、誤りがある確認映像に対応する人物よりリンクスコアが低い人物を候補人物として高い方から所定数選択する処理が行われる。
 このとき、リンクスコアが所定のしきい値以上となり、かつ、誤りがあるものとして選択された確認映像に対応する人物の追尾期間(カメラ内追尾で追尾された期間)を基準にして設定された検索期間内に追尾期間が含まれる人物を対象にして候補人物が選択される。なお、リンクスコアのしきい値、および検索期間を設定する際の時間幅に関する設定情報が、PC3の設定情報保持部(図示せず)に保持されている。
 候補映像提示部26では、確認映像提示部25により提示された確認映像に誤りがある場合に、候補選択部33で選択した候補人物に関する映像、すなわち、追跡対象とした人物が写っている可能性が確認映像の次に高い映像を候補映像として抽出して、その候補映像を提示する、具体的には、所定数の候補映像が表示された候補映像表示状態のタイムライン画面(候補選択画面、図13参照)をモニタ7に表示させて、その画面上で追跡対象とした人物が写った候補映像を監視者に選択させる処理が行われる。
 カメラ間追尾処理部22の追尾情報修正部34では、候補映像提示部26により提示された候補映像の中に適切な候補映像がある場合に、その候補映像に対応する人物を追跡対象とした人物と対応づけるように、追跡対象とした人物に関する追尾情報を修正して、修正追尾情報を生成する処理が行われる。
 このとき、追尾情報修正部34では、初期追尾情報を生成する処理と同様に、候補映像に対応する人物を起点にして、連携関係にあるカメラ1に関するカメラ内追尾で追尾された人物の中から、リンクスコアが最も高い、すなわち、同一人物である可能性が最も高い人物をカメラ1ごとに順次選択して、それらの人物を同一人物として対応づけた修正追尾情報を生成する。また、この追尾情報修正処理では、追跡対象設定部24で設定した人物、監視者により確定の操作が行われた確認映像に対応する人物、および既に誤りがある確認映像と入れ替えられた候補映像に対応する人物が、修正対象から除外される。
 追跡対象追加設定部27では、候補映像提示部26により提示された候補映像の中に適切な候補映像がない場合に、レコーダ2に蓄積された映像を表示させた人物追加検索画面(追跡対象追加検索画面、図14および図15参照)をモニタ7に表示させて、その人物追加検索画面において、誤りがある確認映像に対応する期間における映像の中から追跡対象とした人物を監視者に指定させて、その指定された人物を追跡対象に追加設定する処理が行われる。
 カメラ間追尾処理部22の追尾情報修正部34では、追跡対象追加設定部27で追跡対象に設定された人物を、追跡対象設定部24で追跡対象に設定した人物と対応づけて、追跡対象とした人物に関する追尾情報を修正して、修正追尾情報を生成する処理が行われる。
 映像表示期間設定部28では、候補映像提示部26により提示された候補映像の中に適切な候補映像がない場合に、レコーダ2に蓄積された映像を表示させた人物追加検索画面をモニタ7に表示させて、その人物追加検索画面において、追跡対象とした人物が映像に写っている期間を監視者に指定させて、その期間を映像表示期間として設定する処理が行われる。
 カメラ間追尾処理部22の追尾情報修正部34では、映像表示期間設定部28で設定された映像表示期間を、追跡対象とした人物に関する追尾情報に付加する修正を行って、修正追尾情報を生成する処理が行われる。
 映像再生部29では、モニタ7に表示される画面上でカメラ1の映像を動画で表示させる処理が行われる。本実施形態では、連続再生状態のタイムライン画面(連続再生画面、図11参照)をモニタ7に表示させる処理が行われ、このタイムライン画面では、追跡対象となる人物が写ったカメラ1ごとの映像を、時間の経過にしたがって順次動画で表示させる連続再生が行われる。
 画面生成部30は、モニタ7に表示させる画面を生成するものであり、具体的には、追跡対象設定部24からの指示に応じて人物検索画面(追跡対象検索画面)(図6および図7参照)を生成し、確認映像提示部25からの指示に応じて確認映像表示状態のタイムライン画面(追跡対象確認画面、図10参照)を生成し、候補映像提示部26からの指示に応じて候補映像表示状態のタイムライン画面(候補選択画面、図13参照)を生成し、映像再生部29からの指示に応じて連続再生状態のタイムライン画面(連続再生画面、図11参照)を生成する。
 なお、図3に示したPC3の各部は、PC3のプロセッサ(CPU)にHDD等のメモリに保存した追跡支援用のプログラム(インストラクション)を実行させることで実現される。これらのプログラムは、情報処理装置としてのPC3に予め導入して専用の装置として構成する他、所定のOS上で動作するアプリケーションプログラムとして適宜なプログラム記録媒体に記録して、またネットワークを介して、ユーザに提供されるようにしてもよい。
 次に、図1に示したモニタ7に表示される各画面、および各画面で行われる監視者の操作に応じてPC3の各部で行われる処理について説明する。図4は、モニタ7に表示される画面の遷移状況を示す説明図である。図5は、各画面で行われる監視者の操作に応じてPC3の各部で行われる処理の手順を示すフロー図である。
 まず、PC3において追跡支援処理を開始する操作を行うと、単一カメラによる人物検索画面または複数カメラによる人物検索画面(追跡対象検索画面、図6および図7参照)がモニタ7に表示される(ST101)。
 この人物検索画面は、追跡したい人物が万引きなどの問題のある行為を行った日時を指定するとともに、追跡したい人物が問題のある行為を行った場所や、その人物が通ったものと想定されるエリアを撮影するカメラ1を指定して、追跡対象とする人物が写った映像を探し出して、その映像上で追跡対象とする人物を指定するものであり、日時およびカメラ1を指定して表示された映像に追跡対象とする人物が写っていると、その人物に表示された人物枠を選択して、その人物を追跡対象に指定する操作が監視者により行われる(ST102でYes)。
 この人物検索画面には、単一カメラによる人物検索画面と複数カメラによる人物検索画面とがあり、単一カメラによる人物検索画面は、単一のカメラ1の映像を表示させて追跡対象とする人物が写った映像を探し出すものであり、複数カメラによる人物検索画面は、複数のカメラ1の映像を表示させて追跡対象とする人物が写った映像を探し出すものである。これらの人物検索画面で、カメラ選択の操作を行うと、単一カメラ選択画面または複数カメラ選択画面に遷移する。単一カメラ選択画面では、人物検索画面に映像を表示させるカメラ1を監視者が1つ選択することができる。複数カメラ選択画面では、人物検索画面に映像を表示させるカメラ1を監視者が複数選択することができる。単一カメラ選択画面または複数カメラ選択画面でカメラ1を選択すると、人物検索画面に戻り、その人物検索画面に選択されたカメラの映像が表示される。
 人物検索画面で、監視者が追跡対象とする人物を指定すると、追跡対象設定部24において、監視者が指定した人物を追跡対象に設定する処理が行われる(ST103)。ついで、初期追尾情報生成部32において、各カメラ1に関するカメラ内追尾処理で検出追尾された人物の中からリンクスコアが最も高い人物をカメラごとに順次選択して、初期追尾情報を生成する処理が行われる(ST104)。そして、確認映像提示部25において、初期追尾情報に基づいて、追跡対象とした人物が写っている可能性が最も高い映像を確認映像としてカメラ1ごとに抽出して、その確認映像が表示された確認映像表示状態のタイムライン画面(追跡対象確認画面、図10参照)をモニタ7に表示させる処理が行われる(ST105)。
 この確認映像表示状態のタイムライン画面(追跡対象確認画面)は、確認映像によってカメラ間追尾情報(初期追尾情報)に誤りがないかを監視者に確認させるものであり、この確認映像表示状態のタイムライン画面に表示された全ての確認映像に誤りがない、すなわち、全ての確認映像に追跡対象とした人物が写っており、かつ、その人物に人物枠が表示されている場合には、連続再生を指示する操作が監視者により行われて(ST106でYes)、連続再生状態のタイムライン画面(連続再生画面、図11参照)に遷移する(ST107)。
 この連続再生状態のタイムライン画面(連続再生画面)では、追跡対象が写ったカメラ1ごとの映像を、時間の経過にしたがって順次表示させる連続再生が行われる。
 一方、確認映像表示状態のタイムライン画面(追跡対象確認画面)に表示された複数の確認映像の中に誤りがある確認映像が見つかった場合、すなわち、いずれかの確認映像に、追跡対象とした人物が写っていないか、あるいは追跡対象とした人物が写っているものの、追跡対象を示す人物枠が追跡対象とした人物と異なる人物に表示されている場合には、その確認映像を選択して候補映像の表示を指示する操作が監視者により行われる(ST108でYes)。
 すると、候補選択部33において、確認映像に対応する人物よりリンクスコアが低い人物を上位から所定数選択する処理が行われ、候補映像提示部26において、候補選択部33で選択された人物の映像を候補映像として抽出して、その候補映像が並べて表示された候補映像表示状態のタイムライン画面(候補選択画面、図13参照)をモニタ7に表示させる処理が行われる(ST109)。
 この候補映像表示状態のタイムライン画面(候補選択画面)では、追跡対象とした人物が写っている可能性が確認映像の次に高い映像が候補映像として上位のものから所定数だけ表示される。なお、リンクスコアが最も高い人物と次順位以降の人物とが同一のカメラで撮影されている場合もあり、候補映像は、確認映像と同じカメラである場合もある。
 この候補映像表示状態のタイムライン画面に表示された候補映像の中に、適切な候補映像がある、すなわち、追跡対象とした人物が写った候補映像が見つかり、かつ、その人物に人物枠が表示されている場合には、その候補映像を選択する操作が監視者により行われる(ST110でYes)。
 すると、カメラ間追尾処理部22の追尾情報修正部34において、候補映像表示状態のタイムライン画面で選択された候補映像に対応する人物を、最初に追跡対象に指定した人物と対応づけるように追尾情報を修正する処理が行われる(ST111)。そして、確認映像表示状態のタイムライン画面(追跡対象確認画面)に戻り(ST107)、このタイムライン画面では、追尾情報を修正した結果が反映される、すなわち、タイムライン画面の確認映像が候補映像に置き換えられて表示される。
 一方、候補映像表示状態のタイムライン画面に表示された候補映像の中に、適切な候補映像がない、すなわち、追跡対象とした人物が写った候補映像が見つからないか、または、追跡対象とした人物が写った候補映像が見つかったが、その人物に人物枠が表示されていない場合には、人物手動指定を選択する操作が監視者により行われて(ST112でYes)、人物追加検索画面(追跡対象追加検索画面、図14および図15参照)に遷移する(ST113)。
 この人物追加検索画面では、日時およびカメラ1を指定して追跡対象とした人物が写った映像を探し出す作業が監視者により行われる。この人物追加検索画面には、人物検索画面(追跡対象検索画面)と同様に、単一カメラによる人物追加検索画面と、複数カメラによる人物追加検索画面とがある。これらの人物追加検索画面で、カメラ選択の操作を行うと、単一カメラ選択画面または複数カメラ選択画面に遷移し、これらの画面でカメラ1を選択すると、人物追加検索画面に戻り、この人物追加検索画面に選択されたカメラの映像が表示される。
 この人物追加検索画面で、追跡対象とした人物が写った映像が見つかり、かつ、その人物に人物枠が表示されている場合、すなわち、追跡対象とした人物に関するカメラ内追尾が成功している場合には、その人物枠を選択する操作が監視者により行われる(ST114でYes)。すると、カメラ間追尾処理部22の追尾情報修正部34において、人物追加検索画面で選択された人物を最初に追跡対象に指定した人物と対応づけるように追尾情報を修正する処理が行われる(ST111)。そして、確認映像表示状態のタイムライン画面に戻り(ST105)、このタイムライン画面では、追尾情報を修正した結果が反映される、すなわち、タイムライン画面の確認映像が、人物追加検索画面で指定した人物の映像に置き換えられて表示される。
 一方、人物追加検索画面で、追跡対象とした人物が写った映像が見つかったが、その人物に人物枠が表示されていない、すなわち、追跡対象とした人物に関するカメラ内追尾が失敗している場合には、この人物追加検索画面で、追跡対象とした人物が映像に写っている期間を映像表示期間として指定する操作が監視者により行われる(ST115でYes)。すると、映像表示期間設定部28において、映像表示期間を設定する処理が行われ、ついで、追尾情報修正部34において、追跡対象とした人物に関する追尾情報に映像表示期間を付加する修正が行われる(ST116)。そして、確認映像表示状態のタイムライン画面に戻り(ST105)、このタイムライン画面では、追尾情報を修正した結果が反映される、すなわち、タイムライン画面の確認映像が、人物追加検索画面で指定した映像表示期間の映像に置き換えられて表示される。
 以上のように、確認映像表示状態のタイムライン画面に表示される確認映像に誤りがある場合には、候補映像を指定する操作、または追跡対象とした人物を探し出して指定する操作、または追跡対象とした人物が映像に写る映像表示期間を入力する操作が、監視者により行われ、これらの操作が、誤りがある確認映像がなくなるまで繰り返される。そして、全ての確認映像に誤りがないことが確認されると、連続再生を指示する操作が監視者により行われて(ST106でYes)、連続再生状態のタイムライン画面(連続再生画面)(図11参照)がモニタ7に表示される(ST107)。
 以下に、図4に示した各画面について詳しく説明する。
 まず、図4に示した単一カメラによる人物検索画面および複数カメラによる人物検索画面(追跡対象検索画面)について説明する。図6および図7は、モニタ7に表示される単一カメラによる人物検索画面および複数カメラによる人物検索画面をそれぞれ示す説明図である。
 図6および図7に示すように、人物検索画面(追跡対象検索画面)は、追跡したい人物が万引きなどの問題のある行為を行った日時を指定して、追跡対象とする人物が写った映像を探し出して、その映像上で追跡対象とする人物を指定するものであり、検索日時指定部41と、検索カメラ指定部42と、映像表示部43と、再生操作部44と、が設けられている。
 検索日時指定部41では、追跡対象とする人物が写っているものと想定される期間の中心となる日時を監視者が指定する。この検索日時指定部41で日時を指定して検索ボタン(検索指示部)45を操作すると、指定した日時の映像が映像表示部43に表示される。
 検索カメラ指定部42では、検索モード(単一カメラモードおよび複数カメラモード)に応じてカメラ1を監視者が選択する。単一カメラモードは、単一のカメラ1を指定して、その単一のカメラ1の映像から追跡対象とする人物が写った映像を探し出すものであり、複数カメラモードは、複数のカメラ1を指定して、その複数のカメラ1ごとの映像から追跡対象とする人物が写った映像を探し出すものである。
 この検索カメラ指定部42には、検索モード選択部(ラジオボタン)46と、カメラ選択部47と、マップ表示ボタン48と、カメラ選択ボタン49と、設けられている。
 検索モード選択部46では、単一カメラモードおよび複数カメラモードのいずれかの検索モードを選択する。カメラ選択部47では、プルダウンメニューにより単一のカメラ1を選択する。また、マップ表示ボタン48を操作すると、単一カメラ選択画面(図8参照)が表示され、この単一カメラ選択画面で、選択されたカメラの位置を確認することができ、さらに、別のカメラ1に変更することもできる。カメラ選択ボタン49を操作すると、複数カメラ選択画面(図9参照)が表示され、この複数カメラ選択画面で複数のカメラ1を選択することができる。
 なお、検索モード(単一カメラモードおよび複数カメラモード)の選択状態およびカメラ1の選択状態に関する情報は、図示しない情報保持部に保持され、次回起動時に、前回終了時に選択されていた検索モードおよびカメラ1のままで、単一カメラによる人物検索画面または複数カメラによる人物検索画面が表示される。
 単一カメラモードを選択して、日時およびカメラを指定して、検索ボタン45を操作すると、図6に示す単一カメラによる人物検索画面が表示され、この単一カメラによる人物検索画面では、映像表示部43に、指定された単一のカメラ1の映像が表示される。一方、複数カメラモードを選択して、日時およびカメラを指定して、検索ボタン45を操作すると、図7に示す複数カメラによる人物検索画面が表示され、この複数カメラによる人物検索画面では、映像表示部43に、指定された複数のカメラ1の映像が並べて表示される。
 映像表示部43には、カメラ1の映像と、カメラ1の名称と、日時、すなわち、映像の撮影時刻と、が表示される。
 また、図6に示すように、映像表示部43では、ここに表示された映像から検出された人物、すなわち、カメラ内追尾処理の対象となった人物の画像領域に人物枠51が表示され、この人物枠51を選択する操作を行うことで、その人物が追跡対象に設定される。なお、図7に示す複数カメラによる人物検索画面でも、同様にカメラ1の映像上に人物枠が表示される。
 再生操作部44は、映像表示部43に表示される映像の再生に関する操作を行うものであり、この再生操作部44には、再生、逆再生、停止、早送り、および巻き戻しの各ボタン52が設けられており、これらのボタン52を操作することで、映像を効率的に閲覧することができ、追跡対象とする人物が写る映像を効率よく見つけ出すことができる。
 また、再生操作部44には、映像表示部43に表示される映像の表示時刻を調整するスライダ(表示時刻調整部)53が設けられており、このスライダ53を操作することで、所望の時刻の映像に切り替えることができる。具体的には、マウスなどの入力デバイス6を用いてスライダ53をずらす操作(ドラッグ)を行うと、そのスライダ53が指し示す時刻の映像が映像表示部43に表示される。スライダ53はバー54に沿って移動可能に設けられており、このバー54は、検索日時指定部41で指定された時刻を中心とした表示時刻の調整範囲を規定する。
 また、再生操作部44には、調整範囲指定ボタン(調整範囲指定部)55が設けられており、この調整範囲指定ボタン55により、バー54で規定されるスライダ53の移動範囲、すなわち、表示時刻の調整範囲を指定することができる。図に示す例では、表示時刻の調整範囲を1時間と6時間とで切り換えることができる。
 次に、図4に示した単一カメラ選択画面について説明する。図8は、モニタ7に表示される単一カメラ選択画面を示す説明図である。
 人物検索画面(図6および図7参照)において検索モード選択部46で単一カメラモードを選択して、マップ表示ボタン48を操作すると、図8に示す単一カメラ選択画面が表示される。
 この単一カメラ選択画面は、単一カメラによる人物検索画面(図6参照)に映像を表示させるカメラを監視者が1つ選択するものであり、店舗内のレイアウト(監視エリアの状態)を示す地図画像61上に、複数のカメラ1ごとのカメラアイコン(カメラ1を示す映像)62が重畳して表示されている。このカメラアイコン62は、カメラ1の撮影方向を表すように傾斜して表示されており、これにより、カメラ1の撮影エリアを監視者が大まかに把握することができる。
 この単一カメラ選択画面でカメラアイコン62を選択すると、カメラアイコン62が選択状態に変化する。なお、人物検索画面(図6参照)のカメラ選択部47でカメラ1を選択した上で、マップ表示ボタン48を操作すると、この単一カメラ選択画面に、選択されたカメラに関するカメラアイコン62が選択状態で表示され、選択したカメラの位置を確認することができ、さらに、別のカメラ1に変更することもできる。
 PC3では、図示しない情報保持部に、カメラアイコン62の座標および向きなどに関するカメラ設定情報と、選択の有無に応じたカメラアイコン62の画像情報とが保持されており、これらの情報に基づいて、カメラ1の実際の配置状況に対応した位置および向きで、選択の有無に応じたカメラアイコン62が表示される。
 この単一カメラ選択画面でカメラアイコン62を選択して決定ボタン63を操作すると、人物検索画面に表示させるカメラ1が確定され、そのカメラ1の映像が人物検索画面に表示される。
 次に、図4に示した複数カメラ選択画面について説明する。図9は、モニタ7に表示される複数カメラ選択画面を示す説明図である。
 人物検索画面(図6および図7参照)において検索モード選択部46で複数カメラモードを選択して、カメラ選択ボタン49を操作すると、図9に示す複数カメラ選択画面が表示される。
 この複数カメラ選択画面は、複数カメラによる人物検索画面(図7参照)に映像を表示させるカメラを監視者が複数選択するものであり、選択済みカメラ一覧表示部65と、カメラ選択部66と、が設けられている。
 選択済みカメラ一覧表示部65では、選択済みのカメラ1が一覧表示されている。カメラ選択部66は、図8に示した単一カメラ選択画面と同様である。
 カメラ選択部66でカメラアイコン62を選択すると、選択されたカメラアイコン62に対応するカメラ1が選択済みカメラ一覧表示部65に追加される。また、チェックボックス67でカメラ1を選択して、削除ボタン68を操作すると、選択したカメラ1が削除される。決定ボタン69を操作すると、選択済みカメラ一覧表示部65に表示されたカメラ1が、人物検索画面(図7参照)に表示させるカメラ1として確定され、そのカメラ1の映像が人物検索画面に表示される。
 次に、図4に示した確認映像表示状態のタイムライン画面(追跡対象確認画面)について説明する。図10は、モニタ7に表示される確認映像表示状態のタイムライン画面を示す説明図である。
 人物検索画面(図6および図7参照)において監視者が追跡対象とする人物を指定する操作を行うと、図10に示す確認映像表示状態のタイムライン画面が表示される。
 この確認映像表示状態のタイムライン画面は、人物検索画面で追跡対象に指定した人物が写っている可能性が最も高い各カメラの映像を確認映像として表示して、この確認映像によってカメラ間追尾情報(初期追尾情報)に誤りがないかを監視者に確認させるものであり、映像表示部71と、再生操作部44と、マップ表示ボタン72と、が設けられている。なお、再生操作部44は、人物検索画面(図6および図7参照)と同様であるが、連続再生状態のタイムライン画面(図11参照)で映像を動画で表示させる際に使用されるものであり、後に詳しく説明する。
 映像表示部71には、確認映像表示部73と、候補映像表示部74と、が設けられている。なお、候補映像表示部74は、候補映像表示状態のタイムライン画面(図13参照)で映像が表示されるものであり、後に詳しく説明する。
 確認映像表示部73には、確認映像が撮影時刻順に並べて表示されており、監視エリア(店舗内)に進入して追尾が開始されてから、監視エリアを退出するまでの確認映像が、撮影時刻が古い順に左端から並べて表示されている。また、確認映像表示部73には、各確認映像の撮影時刻、および各確認映像を撮影したカメラ1の名称が表示されている。タイムライン画面を開いた際の初期状態では、カメラ1でカメラ内追尾が開始された追尾開始時刻の確認映像が静止画で表示される。確認映像に誤りがない場合には、再生操作部44の操作にしたがって連続再生へと移行させることができる。なお、確認映像には、人物検索画面(図6参照)と同様に、その確認映像で検出追尾された人物に人物枠が表示される。
 なお、確認映像表示部73では、追跡対象指定映像、すなわち、人物検索画面(図6および図7参照)で人物を追跡対象に指定した映像も表示され、この追跡対象指定映像を識別可能なように、追跡対象指定映像であることを表す枠画像が表示されるようにしてもよい。また、確定された確認映像に、確定状態を表す枠画像が表示されるようにしてもよい。
 また、映像表示部71には、第1のスクロールバー(スクロール操作部)75が設けられている。この第1のスクロールバー75は、全ての確認映像が確認映像表示部(確認映像の表示領域)73に収まりきらない場合に、確認映像の配列方向、すなわち横方向に確認映像をスライドさせて表示するものであり、ノブ75aをドラッグすると横方向に確認映像をスライドさせることができ、アロー(左右の矢印)75bをクリックすることで、その方向に確認映像をノブ75aとともに一単位(確認映像1つ分)だけスライドさせることができる。
 なお、確認映像表示部73で確認映像を選択する操作(右クリック)を行うと、確認映像を拡大して表示する確認映像表示画面(図示せず)が別ウィンドウの形で表示され、この画面で確認映像を詳細に観察することができる。
 このように構成された確認映像表示状態のタイムライン画面では、確認映像表示部73に表示された確認映像が、追跡対象に指定した人物のものか否かを判断することで、追跡対象に指定した人物に関するカメラ間追尾情報(初期追尾情報)に誤りがない否かを監視者が確認することができる。カメラ間追尾情報に誤りがある場合には、確認映像に、追跡対象とした人物が写っていないか、あるいは追跡対象とした人物が写っているものの、追跡対象とした人物と異なる人物に人物枠が表示されており、この確認映像を見ることで、カメラ間追尾情報に誤りがあるか否かを判断することができる。
 ここで、確認映像表示部73に表示された全ての確認映像に誤りがない、すなわち、全ての確認映像に追跡対象とした人物が写っており、かつ、その人物に人物枠が表示されている場合には、連続再生を指示する操作、すなわち、再生操作部44の再生のボタン52を操作する。すると、図11に示す連続再生状態のタイムライン画面に遷移する。
 次に、図4に示した連続再生状態のタイムライン画面(連続再生画面)について説明する。図11は、モニタ7に表示される連続再生状態のタイムライン画面を示す説明図である。
 この連続再生状態のタイムライン画面は、確認映像表示状態のタイムライン画面(図10参照)と略同様の構成であるが、この連続再生状態のタイムライン画面では、確認映像表示部73に表示された確認映像を、時間の経過にしたがって順次動画で表示させる連続再生が行われる。再生中の確認映像には、再生中であることを示す枠画像76が表示される。
 なお、再生操作部44において、映像表示部71に表示される確認映像の表示時刻を調整するスライダ53の移動範囲、すなわち、表示時刻の調整範囲を規定するバー54の始点(左端)は、撮影時刻が最も古い確認映像の開始時刻となり、バー54の終点(右端)は、撮影時刻が最も新しい確認映像の終了時刻となる。
 ここで、各カメラの映像が動画で表示される映像表示期間は、人物枠が表示されている期間、すなわち、各カメラに関するカメラ内追尾で人物が検出追尾されている期間となる。また、前後の映像で映像表示期間が整合しない、すなわち、前の映像の終了時刻と後の映像の開始時刻との間にタイムラグがある場合には、映像の再生が途切れないように、映像表示期間を前後に延長して映像表示期間を時間的につなぎ合わせる処理を行う。また、前後の映像で映像表示期間が重複している場合もあり、この場合には、前後の映像で並行して再生が行われる。これにより、連続再生時には、必ず1つまたは2つの映像が再生されている状態となる。
 なお、この連続再生状態のタイムライン画面では、撮影時刻が古いものから順に確認映像が左から並べて表示されているため、連続再生時には確認映像が左から順に再生されるが、全ての確認映像が確認映像表示部73に収まりきらない場合には、確認映像を適宜なタイミングで自動でスライドさせる処理が行われ、これにより監視者が特別な操作を行うことなく、全ての確認映像が連続して再生される状況を閲覧することができる。また、確認映像表示部73の確認映像を選択する操作(右クリック)を行うと、確認映像を拡大して表示する確認映像表示画面(図示せず)が別ウィンドウの形で表示され、この画面で確認映像を拡大した状態で動画で表示させることができる。また、連続再生中においては、確認映像を拡大して表示する確認映像表示画面(別ウィンドウ)を選択する操作が行われた場合、以降の全ての確認映像に対して、拡大表示を有効状態とし、1つまたは2つの別ウィンドウにて拡大映像が連続再生されるようにすると良い。
 次に、図4に示したカメラ位置確認画面について説明する。図12は、モニタ7に表示されるカメラ位置確認画面を示す説明図である。
 連続再生状態のタイムライン画面(図11参照)において確認映像を連続再生させている状態でマップ表示ボタン72を操作すると、図12に示すカメラ位置確認画面が表示される。
 このカメラ位置確認画面は、連続再生状態のタイムライン画面で再生中の映像を撮影したカメラ1の位置を確認するものであり、カメラ選択画面(図8参照)と同様に、店舗内のレイアウト(監視エリアの状態)を示す地図画像61上に、複数のカメラ1ごとのカメラアイコン(カメラを示す映像)62が重畳して表示され、再生中のカメラ1に対応するカメラアイコン62が、その他のカメラ1に対応するカメラアイコン62と識別可能なように表示色を変更するなどの異なる表示形態で表示される。
 なお、このカメラ位置確認画面の表示は、確認映像表示状態のタイムライン画面(図10参照)でも同様に行うことができ、確認映像表示状態のタイムライン画面において確認映像を選択してマップ表示ボタン72を操作すると、選択された確認映像を撮影したカメラ1の位置がカメラ位置確認画面に表示される。
 次に、図4に示した候補映像表示状態のタイムライン画面(候補選択画面)について説明する。図13は、モニタ7に表示される候補映像表示状態のタイムライン画面を示す説明図である。
 確認映像表示状態のタイムライン画面(図10参照)に表示された複数の確認映像の中に誤りがある確認映像が見つかった場合、すなわち、いずれかの確認映像に、追跡対象とした人物が写っていないか、あるいは追跡対象とした人物が写っているものの、追跡対象を示す人物枠が追跡対象とした人物と異なる人物に表示されている場合には、その確認映像を選択する操作が監視者により行われて、図13に示す候補映像表示状態のタイムライン画面が表示される。
 この候補映像表示状態のタイムライン画面(候補選択画面)は、確認映像表示状態のタイムライン画面(図10参照)に表示された確認映像に誤りがある場合に、追跡対象とした人物が写っている可能性が確認映像の次に高い映像を候補映像として表示して監視者に選択させるものである。
 この候補映像表示状態のタイムライン画面は、確認映像表示状態のタイムライン画面(図10参照)と略同様であるが、候補映像表示部74において、誤りがあるものとして選択された確認映像の下に、所定数の候補映像がリンクスコアが高い順に上から一列に並べて表示されている。なお、確認映像表示状態のタイムライン画面(図10参照)において、誤りがある確認映像を選択すると、その確認映像に選択状態を示す枠画像77が所定の表示色(例えば黄色)で表示される。
 また、映像表示部71には、第2のスクロールバー(スクロール操作部)78が設けられている。この第2のスクロールバー78は、全ての候補映像が候補映像表示部(候補映像の表示領域)74に収まりきらない場合に、候補映像の配列方向、すなわち縦方向に候補映像をスライドさせて表示するものであり、ノブ78aをドラッグすると縦方向に候補映像をスライドさせることができ、アロー(上下の矢印)78bをクリックすることで、その方向に候補映像をノブ78aとともに一単位(候補映像1つ分)だけスライドさせることができる。
 なお、候補映像表示部74で候補映像を選択する操作(右クリック)を行うと、候補映像を拡大して表示する候補映像表示画面(図示せず)が表示され、この画面で候補映像を詳細に観察することができる。
 この候補映像表示状態のタイムライン画面において、候補映像表示部74に表示された候補映像の中に、適切な候補映像がある、すなわち、追跡対象とした人物が写った候補映像が見つかり、かつ、その人物に人物枠が表示されている場合には、その候補映像を選択する操作(左クリック)が監視者により行われる。
 すると、カメラ間追尾処理部22の追尾情報修正部34において、候補映像表示状態のタイムライン画面で選択された候補映像に対応する人物を、人物検索画面(図6および図7参照)で追跡対象に指定した人物と対応づけるように追尾情報を修正する処理が行われる。そして、この追尾情報を修正した結果を反映させた状態で、確認映像表示状態のタイムライン画面(図10参照)がモニタ7に表示される。
 この確認映像表示状態のタイムライン画面では、追尾情報を修正した結果が反映される、すなわち、確認映像表示状態のタイムライン画面で誤りがあるものとして選択された確認映像が、候補映像表示状態のタイムライン画面で選択された候補映像に置き換えられて表示される。また、誤りがある確認映像を候補映像と入れ替えたことに伴って、その前後の確認映像が変更される場合もある。すなわち、追尾情報修正部34では、候補映像に対応する人物を起点にして、リンクスコアが最も高い人物をカメラ1ごとに順次選択する処理が行われ、ここで選択された人物が、確認映像に対応する人物と異なる場合には、人物の入れ替えが発生し、これに応じて確認映像が変更される。また、追尾情報修正部34において追尾情報を修正する際には、追跡対象設定部24で設定した人物、監視者により確定の操作が行われた確認映像に対応する人物、および既に誤りがある確認映像と入れ替えられた候補映像に対応する人物は対象から除外されるため、それらの人物に関する確認映像は変更されない。
 なお、本実施形態では、候補映像表示状態のタイムライン画面で適切な候補映像を選択するようにしたが、候補映像上の人物枠を選択するようにしてもよい。このようにすると、誤った人物で追尾情報が修正されることを避けることができる。
 一方、候補映像表示状態のタイムライン画面に表示された候補映像の中に、適切な候補映像がない、すなわち、追跡対象とした人物が写った候補映像が見つからないか、または、追跡対象とした人物が写った候補映像が見つかったが、その人物に人物枠が表示されていない場合には、誤りがあるものとして選択された確認映像上で、メニューを表示させる操作(右クリック)を行って人物手動指定を選択すると、図14に示す人物追加検索画面が表示される。
 次に、図4に示した単一カメラによる人物追加検索画面および複数カメラによる人物追加検索画面(追跡対象追加検索画面)について説明する。図14および図15は、モニタ7に表示される単一カメラによる人物追加検索画面および複数カメラによる人物追加検索画面をそれぞれ示す説明図である。
 図14および図15に示す人物追加検索画面(追跡対象追加検索画面)は、候補映像表示状態のタイムライン画面(図13参照)に表示された候補映像の中に適切な候補映像がない場合に、誤りがある確認映像に対応する期間の映像を再生して、人物を探し出すものである。
 前記のように、候補映像表示状態のタイムライン画面(図13参照)には、確認映像の人物の次にリンクスコアが高い人物の映像が候補映像として上位から所定数表示され、この候補映像の中に、追跡対象とした人物が写っているものがない場合、すなわち、追跡対象とした人物がスコアの比較的高い人物の中にいない場合、この人物追加検索画面により、誤りがある確認映像に対応する期間で、リンクスコアの低い人物の中から追跡対象とした人物を探し出すことができる。
 この人物追加検索画面(追跡対象追加検索画面)には、人物検索画面(図6および図7参照)と略同様に、検索日時指定部41と、検索カメラ指定部42と、映像表示部43と、再生操作部44と、が設けられているが、この人物追加検索画面には、さらに、映像表示期間指定部81が設けられている。
 検索日時指定部41は、人物検索画面(図6および図7参照)と同様に、検索時刻を指定するものであるが、候補映像表示状態のタイムライン画面(図13参照)において誤りがある確認映像を選択して人物追加検索画面を表示させる操作を行った際に表示される人物追加検索画面の初期状態では、検索日時指定部41に、誤りがあるものとして選択された確認映像の後の確認映像の開始時刻が表示され、映像表示部にその時刻の映像が表示される。なお、選択された確認映像の前の確認映像の終了時刻が表示されるようにしてもよい。また、検索時刻を変更したい場合には、検索日時指定部41に別の時刻を入力して、検索ボタン45を操作すればよい。
 検索カメラ指定部42は、人物検索画面(図6および図7参照)と同様であるが、人物追加検索画面の初期状態では、選択した確認映像と同じカメラ1の映像が表示される。なお、同じカメラ1の映像から追跡対象とした人物を見つけることができない場合には、検索カメラ指定部42で別のカメラ1を選択すればよい。
 再生操作部44は、人物検索画面(図6および図7参照)と同様である。なお、スライダ53の移動範囲(表示時刻の調整範囲)は、後続の確認映像の開始時刻より前の期間とする。すなわち、後続の確認映像の開始時刻をバー54の終点(右端)として、調整範囲指定ボタン55により指定された期間(1時間または6時間)で、スライダ53を操作して再生時刻を調整することができる。
 ここで、人物追加検索画面において、追跡対象とした人物が写った映像が見つかり、かつ、その人物に人物枠が表示されている場合、すなわち、誤りがある確認映像に対応する期間で追跡対象とした人物の追尾が成功している場合には、その人物枠を選択することで、検索人物の指定が完了する。すると、カメラ間追尾処理部22の追尾情報修正部34において、人物追加検索画面で選択された人物を最初に追跡対象に指定した人物と対応づけるように追尾情報の修正が行われる。そして、この追尾情報の修正結果を反映させた状態で、確認映像表示状態のタイムライン画面(図10参照がモニタ7に表示される。
 この確認映像表示状態のタイムライン画面では、追尾情報を修正した結果が反映される、すなわち、確認映像表示状態のタイムライン画面で誤りがあるものとして選択された確認映像が、人物追加検索画面で選択された人物の映像に置き換えられて表示される。また、誤りがある確認映像を別の人物の映像と入れ替えたことに伴って、その前後の確認映像が変更される場合もある。これは、候補映像表示状態のタイムライン画面(図13参照)で候補映像を選択した場合と同様である。
 一方、人物追加検索画面において、追跡対象とした人物が写った映像が見つかったが、その人物に人物枠が表示されていない場合、すなわち、誤りがある確認映像に対応する期間で、追跡対象とした人物の追尾が失敗している場合には、人物の選択に代えて、追跡対象とした人物が写っている期間を映像表示期間として監視者が指定することができる。
 図14および図15に示したように、人物追加検索画面には、映像表示期間指定部81が設けられている。この映像表示期間指定部81では、追跡対象とした人物が映像に写っている期間を映像表示期間として監視者が指定する。映像表示期間は開始時刻および終了時刻により規定され、映像表示期間指定部81には、開始時刻入力部83と、終了時刻入力部84と、開始時刻確定ボタン85と、終了時刻確定ボタン86と、が設けられている。開始時刻入力部83に開始時刻を入力して開始時刻確定ボタン85を操作することで開始時刻が確定し、終了時刻入力部84に終了時刻を入力して終了時刻確定ボタン86を操作することで終了時刻を確定させることができる。なお、設定解除ボタン82は、開始時刻および終了時刻の指定をやり直す場合に用いる設定解除用の操作ボタンである。
 このようにして映像表示期間が入力されると、この映像表示期間を追尾情報に付加するように追尾情報が修正されて、確認映像表示状態のタイムライン画面(図10参照)に戻り、この確認映像表示状態のタイムライン画面では、誤りがある確認映像の代わりに、人物追加検索画面で指定した映像表示期間の映像が確認映像として表示される。このとき、初期状態では、映像表示期間の開始時刻の映像が静止画で表示される。
 ここで、人物の選択の代わりに映像表示期間を指定することで、追跡対象とした人物の追尾情報は途切れるため、指定した映像表示期間の映像に置き換えられた確認映像の隣は空欄となるが、監視エリア内に人物が存在することが想定される場合には、人物追加検索画面で必要に応じてカメラ1を切り換えながら、追跡対象とした人物が写る映像を探し出して、映像表示期間を逐一指定すればよい。また、人物追加検索画面で追跡対象とした人物が写る映像を探し出して、その映像で追跡対象とした人物に人物枠が表示されていると、その人物枠を選択して人物を指定することができ、この場合、リンクスコアに基づくカメラ間追尾が行われて追尾情報が生成される。このようにして生成された追尾情報は、カメラ間追尾で生成した追尾情報の欠落部分が、人物追加検索画面で指定した映像表示期間で補間された状態となる。これにより、連続再生状態のタイムライン画面(図11参照)で連続再生を行う際に、追跡対象とした人物の映像を途切れることなく再生することができる。
 なお、映像表示部43に表示された撮影時刻に基づいて開始時刻および終了時刻を入力するようにすればよいが、追跡対象とした人物が映像に出現した直後の状態で開始時刻設定の操作を行う、例えば開始時刻確定ボタン85を操作することで、開始時刻が設定され、追跡対象とした人物が映像から消失する直前の状態で終了時刻設定の操作を行う、例えば終了時刻確定ボタン86を操作することで、終了時刻が設定されるようにしてもよい。
 また、開始時刻確定ボタン85、終了時刻確定ボタン86の操作に代えて、映像再生にかかる映像画面上において、1回目のクリック操作で開始時刻が、2回目のクリック操作で終了時刻が設定されるようにしてもよく、監視者が視線を変えることなく、追跡対象とした人物が映像に出現する映像表示期間を正確に設定することができる。
 次に、図10などに示したタイムライン画面の別例について説明する。図16は、モニタ7に表示されるタイムライン画面の別例を示す説明図である。
 このタイムライン画面の別例には、確認映像表示部73と、候補映像表示部74と、再生操作部44と、が設けられている。再生操作部44は、図10などに示したタイムライン画面と同様である。
 このタイムライン画面の別例における確認映像表示部73には、図10などに示したタイムライン画面と同様に、確認映像が撮影時刻順に並べて表示されている。また、図10などに示したタイムライン画面では、確認映像表示部73に確認映像が1列に並べて表示されていたが、この別例では、確認映像が2列に並べて表示されている。また、確認映像表示部73には、第1のスクロールバー(スクロール操作部)75が設けられている。この第1のスクロールバー75は、全ての確認映像が確認映像表示部73に収まりきらない場合に、縦方向に確認映像をスライドさせて表示するものである。また、確認映像表示部73の確認映像を選択すると、その確認映像に選択状態を示す枠画像77が表示される。
 候補映像表示部74には、図10などに示したタイムライン画面と同様に、候補映像がリンクスコアが上位のものから所定数表示されているが、この別例では、候補映像がリンクスコアが高い順に左から並べて表示されている。また、候補映像表示部74には、第2のスクロールバー(スクロール操作部)78が設けられている。この第2のスクロールバー78は、全ての候補映像が候補映像表示部74に収まりきらない場合に、横方向に候補映像をスライドさせて表示するものである。
 なお、図16には、候補映像表示状態のタイムライン画面を示したが、確認映像表示状態のタイムライン画面や連続再生状態のタイムライン画面では、図10および図11に示した例と同様に、確認映像表示部73に確認映像が表示されるだけであり、この確認映像を選択すると、候補映像表示部74に候補映像が表示される。
 以上のように本実施形態では、追跡対象設定部24において、レコーダ2に蓄積された映像をモニタ7に表示させて、その映像上で追跡対象とする人物を指定する監視者の操作入力に応じて、指定された人物を追跡対象に設定し、確認映像提示部25において、レコーダ2に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、追跡対象に設定された人物と同一である可能性が最も高い人物の映像をカメラ1ごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面をモニタ7に表示させ、候補映像提示部26において、追跡対象確認画面に表示された確認映像に誤りがある場合に、追尾情報に基づいて、追跡対象に設定された人物と同一である可能性が、誤りがある確認映像に対応する人物の次に高い人物の映像を、上位から所定数抽出して、それらの映像が候補映像として表示された候補選択画面をモニタ7に表示させて、追跡対象に指定した人物に該当する候補映像を監視者に選択させるものとした。
 これによると、追跡対象とした人物が写っている可能性が最も高いカメラの映像に絞り込んで表示されるため、人物の追尾結果の確認作業を効率よく行うことができる。そして、追跡対象確認画面に表示された確認映像に誤りがある、すなわち、人物の追尾結果に誤りがある場合には、追跡対象とした人物が写っている可能性が確認映像の次に高い映像が候補映像として候補選択画面に表示されるため、監視者は候補映像を選択するだけで、追尾情報が修正されるため、簡単な操作で追尾情報を修正することができる。
 また、本実施形態では、追跡対象確認画面では、複数の確認映像が撮影時刻順に並べて表示されるものとした。これによると、確認映像が撮影時刻順に並べて追跡対象確認画面に表示されるため、監視者は確認映像を順に見ていくだけで、追跡対象とした人物の追尾結果に誤りがないかを確認することができ、人物の追尾結果の確認作業をより一層効率よく行うことができる。
 また、本実施形態では、追跡対象設定部24において、複数のカメラを監視者に選択させて、その選択された複数のカメラごとの映像を画面に並べて表示させて、追跡対象とする人物を監視者に指定させるものとした。これによると、追跡対象とする人物を撮影したものと想定される複数のカメラの映像が同一画面に表示されるため、追跡対象とする人物を監視者が指定する作業を効率よく行うことができる。
 また、本実施形態では、複数の確認映像が追跡対象確認画面における確認映像の表示領域に収まりきらない場合に、確認映像の配列方向に確認映像をスライドさせて表示する第1のスクロールバー(スクロール操作部)75が追跡対象確認画面に設けられたものとした。これによると、全ての確認映像を1画面内で確認することができ、追跡対象とした人物の追尾結果に誤りがないかを監視者が確認する作業を効率よく行うことができる。
 また、本実施形態では、複数の候補映像が候補選択画面における候補映像の表示領域に収まりきらない場合に、候補映像の配列方向に候補映像をスライドさせて表示する第2のスクロールバー(スクロール操作部)78が候補選択画面に設けられたものとした。これによると、全ての候補映像を1画面内で確認することができ、監視者が候補映像を選択する作業を効率よく行うことができる。
 また、本実施形態では、追跡対象設定部24において、撮影日時およびカメラに関する検索条件を入力する監視者の操作入力に応じて、検索条件に適合する映像が表示された追跡対象検索画面をモニタ7に表示させて、その追跡対象検索画面上で追跡対象とする人物が写った映像を監視者に検索させて、追跡対象とする人物を監視者に指定させるものとした。これによると、撮影日時およびカメラに関する検索条件にしたがって、追跡対象検索画面に表示される映像が絞り込まれるため、追跡対象とする人物を監視者が指定する作業を効率よく行うことができる。
 また、本実施形態では、候補選択画面が、追跡対象確認画面に、候補映像を表示させる候補映像表示部74を付加したものとした。これによると、候補映像が確認映像と同一画面に表示されるため、監視者が候補映像を選択する作業を確認映像と比較しながら行うことができ、監視者が候補映像を選択する作業を効率よく行うことができる。
 また、本実施形態では、映像再生部29において、追跡対象に設定された人物、およびその人物と同一として対応づけられた人物に関するカメラ1ごとの映像が撮影時刻順に並べて表示された連続再生画面をモニタ7に表示させ、この連続再生画面において、カメラ1ごとの映像を、時間の経過にしたがって順次動画で表示させる連続再生を行うものとした。これによると、追跡対象とした人物を連続して追跡することができるため、追跡対象とした人物が監視エリア内でどのような行動を行ったかを監視者が簡単に確認することができる。
 また、本実施形態では、画面生成部30において、連続再生画面上で行われる監視者の操作に応じて、監視エリアの状態を示す地図画像上に再生中の映像に対応するカメラ1の位置を表示するカメラ位置確認画面をモニタ7に表示させるものとした。これによると、連続再生画面のみでは、再生中の映像がどの位置に設置されたカメラ1によるものかがわからないが、カメラ位置確認画面を見ることで、再生中のカメラ1の位置を簡単に確認することができる。
 また、本実施形態では、追跡対象追加設定部27において、候補選択画面に表示された候補映像の中に、追跡対象に指定した人物に該当する候補映像がない場合に、誤りがある確認映像に対応する期間の映像をモニタ7に表示させて、その映像上で追跡対象とする人物を指定する監視者の操作入力に応じて、指定された人物を追跡対象に追加設定し、追尾情報修正部34において、追跡対象追加設定部27で追跡対象に追加設定された人物を、追跡対象設定部24で追跡対象に設定された人物と対応づけるように追尾情報を修正するものとした。これによると、候補選択画面に表示された候補映像の中に、追跡対象に指定した人物に該当する候補映像がない場合でも、追跡対象となる人物を監視者が指定することで、誤りがある確認映像に対応する追尾情報が修正されるため、追尾情報の欠落を避けることができる。
 また、本実施形態では、映像表示期間設定部28において、候補選択画面に表示された候補映像の中に、追跡対象に指定した人物に該当する候補映像がない場合に、追跡対象に指定した人物が映像に出現している期間を指定する監視者の操作入力に応じて、指定された期間を映像表示期間として設定し、追尾情報修正部34において、映像表示期間設定部28で設定された映像表示期間を追尾情報に付加するものとした。これによると、候補選択画面に表示された候補映像の中に、追跡対象に指定した人物に該当する候補映像がない場合でも、映像表示期間を監視者が指定することで、誤りがある確認映像に対応する追尾情報が映像表示期間に置き換えられるため、追尾情報の欠落を避けることができる。特に、カメラごとの映像を時間の経過にしたがって順次動画で表示させる連続再生を行う際に、映像が途切れることを避けることができる。
 (第2実施形態)
 次に、第2実施形態について説明する。図17は、第2実施形態においてモニタ7に表示される画面の遷移状況を示す説明図である。図18、図19、図20および図21は、モニタ7に表示されるマップ画面を示す説明図である。なお、ここで特に言及しない点は前記の実施形態と同様である。
 第1実施形態では、追跡対象となる人物を指定する追跡対象検索画面として、図6および図7に示す人物検索画面を表示するようにしたが、この第2実施形態では、追跡対象検索画面として、図18に示すように、追跡対象検索状態のマップ画面が表示される。また、第1実施形態では、追跡対象確認画面および候補選択画面として、図10および図13に示すタイムライン画面を表示するようにしたが、この第2実施形態では、図19~図21に示すマップ画面が表示される。
 この第2実施形態では、図17に示すように、人物検索状態のマップ画面(追跡対象検索画面)で人物を選択すると、確認映像表示状態のマップ画面(追跡対象確認画面)に遷移する。この確認映像表示状態のマップ画面で、誤りがある確認映像を選択した上で候補表示を選択すると、候補映像表示状態のマップ画面(候補選択画面)に遷移する。この候補映像表示状態のマップ画面で候補映像を選択すると、確認映像表示状態のマップ画面に戻り、追尾情報の修正結果が反映された確認映像が表示される。また、人物手動指定を選択すると、人物追加検索状態のマップ画面(追跡対象追加検索画面)に遷移する。この人物追加検索状態のマップ画面で人物を選択すると、確認映像表示状態のマップ画面に戻り、追尾情報の修正結果が反映された確認映像が表示される。確認映像表示状態のマップ画面で、全ての確認映像に誤りがないことが確認されて、連続再生を指示する操作を行うと、連続再生状態のマップ画面(連続再生画面)に遷移する。
 マップ画面では、以下に説明するように、店舗内のレイアウト(監視エリアの状態)を示す地図画像上にカメラ1ごとの映像が表示され、このマップ画面でカメラ1の位置を確認することができるため、第1実施形態のように、カメラ選択画面やカメラ位置確認画面は不要となる。
 図18~図21に示すマップ画面には、検索日時指定部41と、映像表示部101と、再生操作部44と、が設けられている。検索日時指定部41および再生操作部44は、第1実施形態と同様である。
 映像表示部101では、店舗内のレイアウト(監視エリアの状態)を示す地図画像61上に、カメラ1ごとの映像をそれぞれ表示する複数の映像表示ウィンドウ(映像表示枠)102が配置されている。各映像表示ウィンドウ102は、カメラ1の撮影領域に概ね対応する位置に配置されており、地図画像61で表される監視エリア内のどの位置が映像表示ウィンドウ102に表示されているかを監視者が大まかに把握することができる。
 図18は、追跡対象検索状態のマップ画面(追跡対象検索画面)を示している。この追跡対象検索状態のマップ画面では、検索日時指定部41で日時を指定して検索ボタン45を操作すると、指定した日時の各カメラ1の映像が映像表示部101の映像表示ウィンドウ102に表示される。このとき、映像表示部101では、全てのカメラ1の映像が映像表示ウィンドウ102に表示され、監視者は、各映像表示ウィンドウ102を見て、追跡対象とする人物を探し出し、該当する人物が見つかると、その人物が写る映像表示ウィンドウ102の映像上で人物枠を選択する操作を行う。
 図19は、確認映像表示状態のマップ画面(追跡対象確認画面)を示している。この確認映像表示状態のマップ画面では、映像表示部101において、追跡対象とした人物が写っている可能性が最も高いカメラ1の映像のみが確認映像として映像表示ウィンドウ102に表示され、その他の映像表示ウィンドウ102はグレーアウトで表示される。このように、確認映像表示状態のマップ画面では、追跡対象とした人物が写っている可能性が最も高いカメラ1の映像に絞り込んで表示されるため、人物の追尾結果の確認作業を効率よく行うことができる。
 この確認映像表示状態のマップ画面において、映像表示ウィンドウ102に表示された確認映像に誤りがない場合には、その映像表示ウィンドウ102を選択して右クリックで表示されるメニューで、確認映像を誤りがないものとして確定させることができる。このとき、映像表示ウィンドウ102の枠画像の表示形態が、未確定状態(例えば緑色)から確定状態(例えば変化)に変化する。一方、映像表示ウィンドウ102に表示された確認映像に誤りがある場合には、その映像表示ウィンドウ102を選択して右クリックで表示されるメニューで、候補表示を選択すると、図20および図21に示す候補映像表示状態のマップ画面が表示される。
 図20および図21は、候補映像表示状態のマップ画面(候補選択画面)を示している。図20に示す例では、候補映像を同一画面に表示したものであり、誤りがあるものと選択した確認映像上に候補映像表示部112が重畳して表示され、この候補映像表示部112には複数の候補映像が並んで表示される。図21に示す例では、候補映像を別画面に表示したものであり、確認映像表示状態のマップ画面上にポップアップで候補表示画面113が表示される。
 図20に示す候補映像表示部112または図21に示す候補表示画面113に表示された候補映像を選択すると、追尾情報が修正され、選択した候補映像が確認映像として映像表示ウィンドウ102に表示される。このとき、追尾情報の修正に応じて、映像が表示される映像表示ウィンドウ102も変化する。
 なお、図17に示した連続再生状態のマップ画面(連続再生画面)は、図19に示した確認映像表示状態のマップ画面と略同様であるが、追跡対象とした人物が写った映像が複数の映像表示ウィンドウ102で順次再生される。また、図17に示した追跡対象追加検索状態のマップ画面は、図18に示した追跡対象検索状態のマップ画面と略同様である。
 (第3実施形態)
 図22は、第3実施形態におけるPC3の各部で行われる処理の手順を示すフロー図である。
 図5に示した第1実施形態では、候補映像表示状態のタイムライン画面に表示された候補映像の中に、適切な候補映像が見つからない場合に(ST110でNo)、人物追加検索画面で、追跡対象とした人物が写る映像を監視者に検索させて人物を指定させ、また、追跡対象とした人物が映像に写る期間を映像表示期間として指定させるようにしたが、この第3実施形態では、これらの処理(ST112~ST116)が省略されている。
 (第4実施形態)
 図23は、第4実施形態におけるPC3の各部で行われる処理の手順を示すフロー図である。
 図5に示した第1実施形態では、人物追加検索画面で、追跡対象とした人物が写る映像が見つかったが、その人物に人物枠が表示されていないため、人物を指定することができない場合に(ST114でNo)、追跡対象とした人物が映像に写る期間を映像表示期間として指定させるようにしたが、この第4実施形態では、これらの処理(ST115,ST116)が省略されている。また、第3実施形態と比較すると、人物追加検索画面で、追跡対象とした人物が写る映像を監視者に検索させて人物を指定させる処理(ST112~ST114)が追加されている。
 以上、本開示を特定の実施形態に基づいて説明したが、これらの実施形態はあくまでも例示であって、本開示はこれらの実施形態によって限定されるものではない。また、上記実施形態に示した本開示に係る追跡支援装置、追跡支援システムおよび追跡支援方法の各構成要素は、必ずしも全てが必須ではなく、少なくとも本開示の範囲を逸脱しない限りにおいて適宜取捨選択することが可能である。
 例えば、前記の実施形態では、スーパーマーケットなどの小売店舗の例について説明したが、ファミリーレストランなどの飲食店など、小売店舗以外の業務形態の店舗に適用することも可能であり、さらに、事業所などの店舗以外の施設にも適用することができる。
 また、本実施形態では、移動体として人物を追跡する例について説明したが、人物以外の移動体、例えば自動車や自転車などの車両を追跡する構成も可能である。
 また、前記の実施形態では、追跡対象とした人物に関する追尾情報に基づいて確認映像提示部25により提示された確認映像に対応する人物を、候補映像提示部26により提示された候補映像に対応する人物や、監視者が映像上で指定した人物に置き換えるように追跡情報の修正が追尾情報修正部34で行われるが、この追尾情報修正部34で行われる追跡情報の修正には、誤った追跡情報を単に削除することも含まれる。すなわち、確認映像に誤りがあるものの、それに代わる適切な映像が見つからない場合には、誤りがある確認映像に対応する人物を追跡情報から削除する。
 また、前記の実施形態では、図1および図3に示したように、カメラ内追尾処理をカメラ内追尾処理装置4に行わせ、カメラ間追尾処理および追跡支援処理をPC3に行わせる例について説明したが、カメラ内追尾処理もPC3に行わせる構成としてもよい。また、カメラ内追尾処理部をカメラ1に設ける構成も可能である。また、カメラ間追尾処理部22の全部または一部をPC3とは別の追尾処理装置で構成することも可能である。
 また、前記の実施形態では、図2に示したように、カメラ1を、視野角の限定される箱型カメラとしたが、これに限らず、広範囲の撮影が可能な全方位カメラを用いることもできる。
 また、本実施形態では、カメラ内追尾処理および追跡支援処理を、店舗に設けられた装置に行わせるようにしたが、これらの必要な処理を、図1に示したように、本部に設けられたPC11や、クラウドコンピューティングシステムを構成するクラウドコンピュータ12に行わせるようにしてもよい。また、必要な処理を複数の情報処理装置で分担し、IPネットワークやLANなどの通信媒体、またはハードディスクやメモリカードなどの記憶媒体を介して、複数の情報処理装置の間で情報を受け渡すようにしてもよい。この場合、必要な処理を分担する複数の情報処理装置で追跡支援システムが構成される。
 特に、クラウドコンピュータ12を含むシステム構成では、店舗や本部に設けられたPC3,11の他に、クラウドコンピュータ12にネットワーク接続されたスマートフォン13やタブレット端末などの携帯型端末で、必要な情報を表示させることができるようにするとよく、これにより店舗や本部の他に外出先などの任意の場所で必要な情報を確認することができる。
 また、前記の実施形態では、カメラ1の映像を蓄積するレコーダ2を店舗に設置するようにしたが、移動体追跡支援に必要な処理を、本部に設置されたPC11やクラウドコンピュータ12に行わせる場合には、カメラ1の映像を、本部や、クラウドコンピューティングシステムの運営施設などに送信して、そこに設置された装置にカメラ1の映像を蓄積するようにしてもよい。
 本開示に係る追跡支援装置、追跡支援システムおよび追跡支援方法は、追跡対象とした移動体の追尾結果に誤りがないかを確認する作業を効率よく行うとともに、移動体の追尾結果に誤りがある場合に、簡単な操作で追尾情報を修正することができる効果を有し、画像蓄積手段に蓄積された複数のカメラごとの撮影画像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援装置、追跡支援システムおよび追跡支援方法などとして有用である。
1 カメラ
2 レコーダ(映像蓄積手段)
3 PC(追跡支援装置)
4 カメラ内追尾処理装置
6 入力デバイス
7 モニタ
11 PC
12 クラウドコンピュータ
13 スマートフォン
21 追尾情報蓄積部
22 カメラ間追尾処理部
23 入力情報取得部
24 追跡対象設定部
25 確認映像提示部
26 候補映像提示部
27 追跡対象追加設定部
28 映像表示期間設定部
29 映像再生部
30 画面生成部
31 リンクスコア算出部
32 初期追尾情報生成部
33 候補選択部
34 追尾情報修正部
73 確認映像表示部
74 候補映像表示部
75 第1のスクロールバー(スクロール操作部)
78 第2のスクロールバー(スクロール操作部)

Claims (13)

  1.  映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援装置であって、
     前記映像蓄積手段に蓄積された映像を前記表示装置に表示させて、その映像上で追跡対象とする移動体を指定する監視者の操作入力に応じて、指定された移動体を追跡対象に設定する追跡対象設定部と、
     前記映像蓄積手段に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、前記追跡対象に設定された移動体と同一である可能性が最も高い移動体の映像を前記カメラごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面を前記表示装置に表示させる確認映像提示部と、
     前記追跡対象確認画面に表示された前記確認映像に誤りがある場合に、前記追尾情報に基づいて、前記追跡対象に設定された移動体と同一である可能性が、誤りがある前記確認映像に対応する移動体の次に高い移動体の映像を、上位から所定数抽出して、それらの映像が候補映像として表示された候補選択画面を前記表示装置に表示させて、前記追跡対象に指定した移動体に該当する前記候補映像を監視者に選択させる候補映像提示部と、
     前記候補選択画面で選択された前記候補映像に対応する移動体を、前記追跡対象に設定された移動体と対応づけるように前記追尾情報を修正する追尾情報修正部と、
    を備えたことを特徴とする追跡支援装置。
  2.  前記追跡対象確認画面では、複数の前記確認映像が撮影時刻順に並べて表示されることを特徴とする請求項1に記載の追跡支援装置。
  3.  前記追跡対象設定部は、複数の前記カメラを監視者に選択させて、その選択された複数のカメラごとの映像を画面に並べて表示させて、追跡対象とする移動体を監視者に指定させることを特徴とする請求項1または請求項2に記載の追跡支援装置。
  4.  複数の前記確認映像が前記追跡対象確認画面における前記確認映像の表示領域に収まりきらない場合に、前記確認映像の配列方向に前記確認映像をスライドさせて表示するスクロール操作部が前記追跡対象確認画面に設けられたことを特徴とする請求項1に記載の追跡支援装置。
  5.  複数の前記候補映像が前記候補選択画面における前記候補映像の表示領域に収まりきらない場合に、前記候補映像の配列方向に前記候補映像をスライドさせて表示するスクロール操作部が前記候補選択画面に設けられたことを特徴とする請求項1に記載の追跡支援装置。
  6.  前記追跡対象設定部は、撮影日時および前記カメラに関する検索条件を入力する監視者の操作入力に応じて、前記検索条件に適合する映像が表示された追跡対象検索画面を前記表示装置に表示させて、その追跡対象検索画面上で追跡対象とする移動体が写った映像を監視者に検索させて、前記追跡対象とする移動体を監視者に指定させることを特徴とする請求項1に記載の追跡支援装置。
  7.  前記候補選択画面は、前記追跡対象確認画面に、前記候補映像を表示させる候補映像表示部を付加したものであることを特徴とする請求項1から請求項6のいずれかに記載の追跡支援装置。
  8.  さらに、前記追跡対象に設定された移動体、およびその移動体と同一として対応づけられた移動体に関する前記カメラごとの映像が撮影時刻順に並べて表示された連続再生画面を前記表示装置に表示させ、この連続再生画面において、前記カメラごとの映像を、時間の経過にしたがって順次動画で表示させる連続再生を行う映像再生部を備えたことを特徴とする請求項1に記載の追跡支援装置。
  9.  さらに、前記連続再生画面上で行われる監視者の操作に応じて、監視エリアの状態を示す地図画像上に再生中の映像に対応する前記カメラの位置を表示するカメラ位置確認画面を前記表示装置に表示させる画面生成部を備えたことを特徴とする請求項8に記載の追跡支援装置。
  10.  さらに、前記候補選択画面に表示された前記候補映像の中に、前記追跡対象に指定した移動体に該当する前記候補映像がない場合に、誤りがある前記確認映像に対応する期間の映像を前記表示装置に表示させて、その映像上で追跡対象とする移動体を指定する監視者の操作入力に応じて、指定された移動体を追跡対象に追加設定する追跡対象追加設定部を備え、
     前記追尾情報修正部は、前記追跡対象追加設定部で前記追跡対象に追加設定された移動体を、前記追跡対象設定部で追跡対象に設定された移動体と対応づけるように前記追尾情報を修正することを特徴とする請求項1に記載の追跡支援装置。
  11.  さらに、前記候補選択画面に表示された前記候補映像の中に、前記追跡対象に指定した移動体に該当する前記候補映像がない場合に、前記追跡対象に指定した移動体が映像に出現している期間を指定する監視者の操作入力に応じて、指定された期間を映像表示期間として設定する映像表示期間設定部を備え、
     前記追尾情報修正部は、前記映像表示期間設定部で設定された前記映像表示期間を前記追尾情報に付加することを特徴とする請求項1に記載の追跡支援装置。
  12.  映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する追跡支援システムであって、
     監視エリアを撮影する前記カメラと、
     このカメラごとの映像を表示する前記表示装置と、
     複数の情報処理装置と、
    を有し、
     前記複数の情報処理装置のいずれかが、
     前記映像蓄積手段に蓄積された映像を前記表示装置に表示させて、その映像上で追跡対象とする移動体を指定する監視者の操作入力に応じて、指定された移動体を追跡対象に設定する追跡対象設定手段と、
     前記映像蓄積手段に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、前記追跡対象に設定された移動体と同一である可能性が最も高い移動体の映像を前記カメラごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面を前記表示装置に表示させる確認映像提示部と、
     前記追跡対象確認画面に表示された前記確認映像に誤りがある場合に、前記追尾情報に基づいて、前記追跡対象に設定された移動体と同一である可能性が、誤りがある前記確認映像に対応する移動体の次に高い移動体の映像を、上位から所定数抽出して、それらの映像が候補映像として表示された候補選択画面を前記表示装置に表示させて、前記追跡対象に指定した移動体に該当する前記候補映像を監視者に選択させる候補映像提示部と、
     前記候補選択画面で選択された前記候補映像に対応する移動体を、前記追跡対象に設定された移動体と対応づけるように前記追尾情報を修正する追尾情報修正部と、
    を備えたことを特徴とする追跡支援システム。
  13.  映像蓄積手段に蓄積された複数のカメラごとの映像を表示装置に表示させて、追跡対象となる移動体を追跡する監視者の作業を支援する処理を情報処理装置に行わせる追跡支援方法であって、
     前記映像蓄積手段に蓄積された映像を前記表示装置に表示させて、その映像上で追跡対象とする移動体を指定する監視者の操作入力に応じて、指定された移動体を追跡対象に設定するステップと、
     前記映像蓄積手段に蓄積された映像に対する追尾処理により取得した追尾情報に基づいて、前記追跡対象に設定された移動体と同一である可能性が最も高い移動体の映像を前記カメラごとに抽出して、それらの映像のみが確認映像として表示された追跡対象確認画面を前記表示装置に表示させるステップと、
     前記追跡対象確認画面に表示された前記確認映像に誤りがある場合に、前記追尾情報に基づいて、前記追跡対象に設定された移動体と同一である可能性が、誤りがある前記確認映像に対応する移動体の次に高い移動体の映像を、上位から所定数抽出して、それらの映像が候補映像として表示された候補選択画面を前記表示装置に表示させて、前記追跡対象に指定した移動体に該当する前記候補映像を監視者に選択させるステップと、
    を備えたことを特徴とする追跡支援方法。
PCT/JP2016/000628 2015-02-20 2016-02-08 追跡支援装置、追跡支援システムおよび追跡支援方法 WO2016132705A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
RU2017128072A RU2696855C2 (ru) 2015-02-20 2016-02-08 Устройство поддержки отслеживания, система поддержки отслеживания и способ поддержки отслеживания
GB1711656.7A GB2550509B (en) 2015-02-20 2016-02-08 Tracking assistance device, tracking assistance system, and tracking assistance method
CN201680009356.9A CN107251552A (zh) 2015-02-20 2016-02-08 跟踪辅助装置、跟踪辅助系统以及跟踪辅助方法
US15/548,210 US10181197B2 (en) 2015-02-20 2016-02-08 Tracking assistance device, tracking assistance system, and tracking assistance method
DE112016000841.4T DE112016000841T5 (de) 2015-02-20 2016-02-08 Verfolgungsassistenzvorrichtung, verfolgungsassistenzsystem und verfolgungsassistenzverfahren

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-032036 2015-02-20
JP2015032036A JP5999394B2 (ja) 2015-02-20 2015-02-20 追跡支援装置、追跡支援システムおよび追跡支援方法

Publications (1)

Publication Number Publication Date
WO2016132705A1 true WO2016132705A1 (ja) 2016-08-25

Family

ID=56688908

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/000628 WO2016132705A1 (ja) 2015-02-20 2016-02-08 追跡支援装置、追跡支援システムおよび追跡支援方法

Country Status (7)

Country Link
US (1) US10181197B2 (ja)
JP (1) JP5999394B2 (ja)
CN (1) CN107251552A (ja)
DE (1) DE112016000841T5 (ja)
GB (1) GB2550509B (ja)
RU (1) RU2696855C2 (ja)
WO (1) WO2016132705A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022082561A (ja) * 2016-12-22 2022-06-02 日本電気株式会社 解析サーバ、監視システム、監視方法及びプログラム

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6284086B2 (ja) 2016-02-05 2018-02-28 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
US20170244959A1 (en) * 2016-02-19 2017-08-24 Adobe Systems Incorporated Selecting a View of a Multi-View Video
US9965934B2 (en) 2016-02-26 2018-05-08 Ring Inc. Sharing video footage from audio/video recording and communication devices for parcel theft deterrence
US10841542B2 (en) 2016-02-26 2020-11-17 A9.Com, Inc. Locating a person of interest using shared video footage from audio/video recording and communication devices
AU2017223188B2 (en) 2016-02-26 2019-09-19 Amazon Technologies, Inc. Sharing video footage from audio/video recording and communication devices
US10748414B2 (en) 2016-02-26 2020-08-18 A9.Com, Inc. Augmenting and sharing data from audio/video recording and communication devices
US10397528B2 (en) 2016-02-26 2019-08-27 Amazon Technologies, Inc. Providing status information for secondary devices with video footage from audio/video recording and communication devices
US11393108B1 (en) 2016-02-26 2022-07-19 Amazon Technologies, Inc. Neighborhood alert mode for triggering multi-device recording, multi-camera locating, and multi-camera event stitching for audio/video recording and communication devices
US10489453B2 (en) 2016-02-26 2019-11-26 Amazon Technologies, Inc. Searching shared video footage from audio/video recording and communication devices
JP6835065B2 (ja) 2016-03-18 2021-02-24 日本電気株式会社 情報処理装置、制御方法、及びプログラム
US11258985B2 (en) * 2016-04-05 2022-02-22 Verint Systems Inc. Target tracking in a multi-camera surveillance system
US10489659B2 (en) 2016-09-07 2019-11-26 Verint Americas Inc. System and method for searching video
JP6740539B2 (ja) * 2016-11-07 2020-08-19 日本電気株式会社 情報処理装置、制御方法、及びプログラム
JP6659524B2 (ja) * 2016-11-18 2020-03-04 株式会社東芝 移動体追跡装置、表示装置および移動体追跡方法
JP6961363B2 (ja) 2017-03-06 2021-11-05 キヤノン株式会社 情報処理システム、情報処理方法及びプログラム
JP6806626B2 (ja) * 2017-05-18 2021-01-06 パナソニック株式会社 人物グループ追跡装置および人物グループ追跡方法
JP6407493B1 (ja) * 2017-08-22 2018-10-17 三菱電機株式会社 画像処理装置および画像処理方法
RU2670429C1 (ru) * 2017-11-24 2018-10-23 ООО "Ай Ти Ви групп" Системы и способы отслеживания движущихся объектов на видеоизображении
US10783925B2 (en) 2017-12-29 2020-09-22 Dish Network L.L.C. Methods and systems for an augmented film crew using storyboards
US10834478B2 (en) * 2017-12-29 2020-11-10 Dish Network L.L.C. Methods and systems for an augmented film crew using purpose
RU2683499C1 (ru) 2018-03-15 2019-03-28 Антон Владимирович Роженков Система автоматического создания сценарного видеоролика с присутствием в кадре заданного объекта или группы объектов
JP6828708B2 (ja) * 2018-03-29 2021-02-10 京セラドキュメントソリューションズ株式会社 制御装置、監視システム、及び監視カメラ制御方法
RU2682315C1 (ru) * 2018-06-19 2019-03-19 Акционерное общество Научно-производственный центр "Электронные вычислительно-информационные системы" (АО НПЦ "ЭЛВИС") Способ видеосъемки телекамерой, установленной на наклонно-поворотной платформе
CA3117239A1 (en) 2018-11-06 2020-05-14 Avigilon Coporation Method and system for displaying video streams
KR20200090403A (ko) * 2019-01-21 2020-07-29 삼성전자주식회사 전자 장치 및 그 제어 방법
CN110334120A (zh) * 2019-06-28 2019-10-15 深圳市商汤科技有限公司 档案应用方法及装置、存储介质
US11076099B1 (en) * 2019-09-30 2021-07-27 Ambarella International Lp Using remote sensors to resolve start up latency in battery-powered cameras and doorbell cameras
US11997409B2 (en) 2019-10-30 2024-05-28 Beijing Bytedance Network Technology Co., Ltd. Video processing method and apparatus, and terminal and storage medium
CN110784674B (zh) * 2019-10-30 2022-03-15 北京字节跳动网络技术有限公司 视频处理的方法、装置、终端及存储介质
JP7125615B2 (ja) * 2019-12-23 2022-08-25 キヤノンマーケティングジャパン株式会社 情報処理システム、情報処理システムの制御方法、プログラム
US20230056155A1 (en) * 2020-01-31 2023-02-23 Nec Corporation Information processing apparatus, information processing method, and storage medium
JP2021145164A (ja) * 2020-03-10 2021-09-24 株式会社日立製作所 映像解析システム、及び、映像解析方法
RU2748581C1 (ru) * 2020-04-02 2021-05-27 Антон Владимирович Роженков Система автоматического создания сценарного видеоролика с присутствием в кадре заданного объекта или группы объектов
WO2021253259A1 (en) * 2020-06-17 2021-12-23 Plantronics, Inc. Presenter-tracker management in a videoconferencing environment
CN115225963A (zh) * 2022-06-24 2022-10-21 浪潮通信技术有限公司 室内定位监控方法及装置
CN117425057A (zh) 2022-07-07 2024-01-19 抖音视界(北京)有限公司 用于影像拍摄的方法、装置、设备和存储介质
CN115334246A (zh) 2022-09-06 2022-11-11 抖音视界有限公司 用于影像拍摄的方法、装置、设备和存储介质
CN116152699B (zh) * 2022-12-02 2024-02-13 中国长江电力股份有限公司 用于水电厂视频监控系统的实时运动目标检测方法
US20240331516A1 (en) * 2023-03-31 2024-10-03 Tyco Fire & Security Gmbh Systems and methods for a map-based multi-camera view dashboard

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014045670A1 (ja) * 2012-09-19 2014-03-27 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
JP2014153813A (ja) * 2013-02-06 2014-08-25 Sony Corp 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP2015019250A (ja) * 2013-07-11 2015-01-29 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7394916B2 (en) * 2003-02-10 2008-07-01 Activeye, Inc. Linking tracked objects that undergo temporary occlusion
US7242423B2 (en) * 2003-06-16 2007-07-10 Active Eye, Inc. Linking zones for object tracking and camera handoff
JP4195991B2 (ja) * 2003-06-18 2008-12-17 パナソニック株式会社 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ
US7450735B1 (en) * 2003-10-16 2008-11-11 University Of Central Florida Research Foundation, Inc. Tracking across multiple cameras with disjoint views
US7787013B2 (en) * 2004-02-03 2010-08-31 Panasonic Corporation Monitor system and camera
JP4759988B2 (ja) 2004-11-17 2011-08-31 株式会社日立製作所 複数カメラを用いた監視システム
US20060238617A1 (en) * 2005-01-03 2006-10-26 Michael Tamir Systems and methods for night time surveillance
US8149278B2 (en) * 2006-11-30 2012-04-03 Mitsubishi Electric Research Laboratories, Inc. System and method for modeling movement of objects using probabilistic graphs obtained from surveillance data
WO2009032366A2 (en) * 2007-05-22 2009-03-12 Vidsys, Inc. Optimal routing of audio, video, and control data through heterogeneous networks
JP5528151B2 (ja) 2010-02-19 2014-06-25 パナソニック株式会社 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム
CN102065279B (zh) * 2010-10-28 2015-11-25 北京中星微电子有限公司 一种连续跟踪监控对象的方法及系统
US8781293B2 (en) * 2012-08-20 2014-07-15 Gorilla Technology Inc. Correction method for object linking across video sequences in a multiple camera video surveillance system
JP5962916B2 (ja) 2012-11-14 2016-08-03 パナソニックIpマネジメント株式会社 映像監視システム
JP6273685B2 (ja) 2013-03-27 2018-02-07 パナソニックIpマネジメント株式会社 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法
JP5506989B1 (ja) 2013-07-11 2014-05-28 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP5506990B1 (ja) * 2013-07-11 2014-05-28 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
US10002289B2 (en) 2014-08-04 2018-06-19 Panasonic Corporation Moving body tracking method and moving body tracking device
WO2016021121A1 (ja) 2014-08-05 2016-02-11 パナソニック株式会社 修正確認方法および修正確認装置
JP6655878B2 (ja) * 2015-03-02 2020-03-04 キヤノン株式会社 画像認識方法及び装置、プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014045670A1 (ja) * 2012-09-19 2014-03-27 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
JP2014153813A (ja) * 2013-02-06 2014-08-25 Sony Corp 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP2015019250A (ja) * 2013-07-11 2015-01-29 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022082561A (ja) * 2016-12-22 2022-06-02 日本電気株式会社 解析サーバ、監視システム、監視方法及びプログラム

Also Published As

Publication number Publication date
DE112016000841T5 (de) 2018-02-22
JP2016154306A (ja) 2016-08-25
JP5999394B2 (ja) 2016-09-28
RU2017128072A3 (ja) 2019-07-17
GB2550509A (en) 2017-11-22
RU2017128072A (ru) 2019-03-20
US10181197B2 (en) 2019-01-15
US20180033153A1 (en) 2018-02-01
RU2696855C2 (ru) 2019-08-07
GB201711656D0 (en) 2017-09-06
GB2550509B (en) 2020-08-26
CN107251552A (zh) 2017-10-13

Similar Documents

Publication Publication Date Title
JP5999394B2 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
JP6206857B1 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
JP6399356B2 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
JP6284086B2 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
JP5506990B1 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
JP5438861B1 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
AU2019216671B2 (en) Method and apparatus for playing video content from any location and any time
JP6593742B2 (ja) 施設内人物捜索支援装置、施設内人物捜索支援システムおよび施設内人物捜索支援方法
WO2017119034A1 (ja) 撮影システム、撮影方法およびプログラム
US9396538B2 (en) Image processing system, image processing method, and program
JPWO2014045843A1 (ja) 画像処理システム、画像処理方法及びプログラム
JP6004148B1 (ja) 画像処理装置、画像処理方法、および画像処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16752095

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 201711656

Country of ref document: GB

Kind code of ref document: A

Free format text: PCT FILING DATE = 20160208

WWE Wipo information: entry into national phase

Ref document number: 112016000841

Country of ref document: DE

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017128072

Country of ref document: RU

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 16752095

Country of ref document: EP

Kind code of ref document: A1