[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6729958B1 - Display control system, display control method and program - Google Patents

Display control system, display control method and program Download PDF

Info

Publication number
JP6729958B1
JP6729958B1 JP2019221232A JP2019221232A JP6729958B1 JP 6729958 B1 JP6729958 B1 JP 6729958B1 JP 2019221232 A JP2019221232 A JP 2019221232A JP 2019221232 A JP2019221232 A JP 2019221232A JP 6729958 B1 JP6729958 B1 JP 6729958B1
Authority
JP
Japan
Prior art keywords
vehicle
image
display unit
outside
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019221232A
Other languages
Japanese (ja)
Other versions
JP2021093565A (en
Inventor
実 向谷
実 向谷
利之 東田
利之 東田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ongakukan Co Ltd
Original Assignee
Ongakukan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ongakukan Co Ltd filed Critical Ongakukan Co Ltd
Priority to JP2019221232A priority Critical patent/JP6729958B1/en
Application granted granted Critical
Publication of JP6729958B1 publication Critical patent/JP6729958B1/en
Priority to PCT/JP2020/044464 priority patent/WO2021112030A1/en
Publication of JP2021093565A publication Critical patent/JP2021093565A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L3/00Electric devices on electrically-propelled vehicles for safety purposes; Monitoring operating variables, e.g. speed, deceleration or energy consumption
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02T90/10Technologies relating to charging of electric vehicles
    • Y02T90/16Information or communication technologies improving the operation of electric vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Sustainable Energy (AREA)
  • Power Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Sustainable Development (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Electric Propulsion And Braking For Vehicles (AREA)
  • Image Analysis (AREA)
  • Digital Computer Display Output (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】車両の周囲の状況を撮影するカメラで認識できない監視対象物の位置を乗務員に的確に把握させることができる表示制御システム、表示制御方法及びプログラムを提供する。【解決手段】車外画像内位置特定部42は、車両の外に設けられた車外撮影装置により撮影される車外画像に写る監視対象物の当該車外画像内における位置である車外画像内位置を特定する。表示部内位置特定部56は、車外画像内位置と、車両の乗務員の眼前に配置される表示部の位置及び向きと、に基づいて、当該表示部内における監視対象物の位置である表示部内位置を特定する。表示制御部58は、特定される表示部内位置に目印画像を表示させる。【選択図】図8PROBLEM TO BE SOLVED: To provide a display control system, a display control method, and a program capable of allowing a crew member to accurately grasp the position of a monitoring target that cannot be recognized by a camera that captures a situation around a vehicle. SOLUTION: An outside-vehicle image position specifying unit 42 specifies an outside-vehicle image position, which is a position in the outside-vehicle image of a monitoring target appearing in an outside-vehicle image captured by an outside-vehicle photographing device provided outside the vehicle. .. The display internal position specifying unit 56 determines the display internal position, which is the position of the monitoring target in the display unit, based on the position outside the vehicle image and the position and orientation of the display unit arranged in front of the crew of the vehicle. Identify. The display control unit 58 displays the mark image at the specified position in the display unit. [Selection diagram] Figure 8

Description

本発明は、表示制御システム、表示制御方法及びプログラムに関する。 The present invention relates to a display control system, a display control method and a program.

特許文献1には、車両の周囲の状況を撮影するカメラから得られたカメラ映像情報により歩行者の存在を認識した場合に、歩行者に重畳させて虚像によりヘッドアップディスプレイ(HUD)にマークをアラート表示する技術が記載されている。 In Patent Document 1, when the presence of a pedestrian is recognized based on camera image information obtained from a camera that captures a situation around a vehicle, a mark is displayed on a head-up display (HUD) by a virtual image by superimposing it on the pedestrian. Describes the technology for displaying alerts.

また、特許文献1には、映像情報では認識できない前方の横断歩道等の路面標識を、地図情報や走行ログ等からそれらが存在するとして把握された位置に虚像として表示することが記載されている。 Further, Patent Document 1 describes that a road surface sign such as a front pedestrian crossing that cannot be recognized by video information is displayed as a virtual image at a position where it is grasped from the map information, a travel log, and the like as they exist. ..

特開2019−59247号公報JP, 2019-59247, A

発明者は、プラットホームからの転落者等の監視対象物が出現した際に、車両の乗務員の眼前に配置されるHUD等の表示部内における当該監視対象物の出現位置にマーク等の目印画像を表示させて、乗務員に監視対象物の位置を的確に把握させることを検討している。 The inventor displays a mark image such as a mark at the appearance position of the monitored object in the display unit such as the HUD arranged in front of the crew of the vehicle when the monitored object such as a fallen person from the platform appears. Therefore, we are considering making the crew accurately grasp the position of the monitored object.

ここで、特許文献1に記載の技術を用いても、車両の周囲の状況を撮影するカメラによって認識できない監視対象物についてはその出現位置に目印画像を表示させることができない。また、このような監視対象物は突発的に出現するので、特許文献1に記載されているような地図情報や走行ログ等からその位置を予め把握することができない。 Here, even if the technique described in Patent Document 1 is used, it is not possible to display a landmark image at the appearance position of a monitoring target object that cannot be recognized by a camera that captures the situation around the vehicle. Further, since such a monitoring target suddenly appears, its position cannot be grasped in advance from the map information, the travel log, etc. described in Patent Document 1.

本発明は上記課題に鑑みてなされたものであって、その目的の1つは、車両の周囲の状況を撮影するカメラで認識できない監視対象物の位置を乗務員に的確に把握させることができる表示制御システム、表示制御方法及びプログラムを提供することにある。 The present invention has been made in view of the above problems, and one of the objects thereof is a display that allows a crew member to accurately grasp the position of a monitoring target that cannot be recognized by a camera that captures a situation around a vehicle. It is to provide a control system, a display control method, and a program.

本発明に係る表示制御システムは、車両の外に設けられた車外撮影装置により撮影される車外画像に写る監視対象物の当該車外画像内における位置である車外画像内位置を特定する車外画像内位置特定手段と、前記車外画像内位置と、前記車両の乗務員の眼前に配置される表示部の位置及び向きと、に基づいて、当該表示部内における前記監視対象物の位置である表示部内位置を特定する表示部内位置特定手段と、特定される前記表示部内位置に目印画像を表示させる表示制御手段と、を含む。 The display control system according to the present invention is an in-vehicle image position for identifying an in-vehicle image position, which is a position in the outside image of a monitored object, which is shown in an outside image captured by an outside image capturing device provided outside the vehicle. Based on the specifying means, the position outside the vehicle image, and the position and orientation of the display unit arranged in front of the crew of the vehicle, the position inside the display unit that is the position of the monitored object in the display unit is specified. And a display control unit for displaying a mark image at the specified position in the display unit.

本発明の一態様では、前記車両の線状の走行経路を示す走行経路データと、前記車外画像内位置と、に基づいて、前記走行経路データが示す走行経路上における前記監視対象物の位置である走行経路上位置を特定する走行経路上位置特定手段、をさらに含み、前記表示部内位置特定手段は、前記走行経路上位置に基づいて、前記表示部内位置を特定する。 In one aspect of the present invention, based on the travel route data indicating the linear travel route of the vehicle and the position inside the vehicle image, the position of the monitored object on the travel route indicated by the travel route data is determined. It further includes a travel route position specifying unit that specifies a certain travel route position, and the display unit internal position specifying unit specifies the display unit internal position based on the travel route position.

また、本発明の一態様では、前記車両に設けられた車載撮影装置により前記監視対象物が撮影されたか否かを判定する判定手段と、前記車載撮影装置により撮影される車載画像に写る前記監視対象物の当該車載画像内における位置である車載画像内位置を特定する車載画像内位置特定手段と、をさらに含み、前記車載撮影装置により前記監視対象物が撮影されたことが判定された場合は、前記表示部内位置特定手段は、前記車載画像内位置に基づいて、前記表示部内位置を特定する。 Further, according to an aspect of the present invention, a determination unit that determines whether or not the monitoring target object has been captured by an in-vehicle image capturing device provided in the vehicle, and the monitoring that appears in an in-vehicle image captured by the in-vehicle image capturing device. When it is determined that the monitoring target has been captured by the vehicle-mounted image capturing device, the vehicle-mounted image capturing device further includes a vehicle-mounted image internal position identifying unit that identifies an in-vehicle image internal position that is a position in the vehicle-mounted image of the object. The display section internal position specifying means specifies the display section internal position based on the vehicle-mounted image internal position.

この態様では、前記車載撮影装置により前記監視対象物が撮影されたことが判定されない状況から判定された状況に変化した際に、前記表示部内位置特定手段は、前記表示部内位置を、前記車外画像内位置に基づくものから、前記車載画像内位置に基づくものに変化させてもよい。 In this aspect, when the in-vehicle imaging device changes from a situation in which it is not determined that the monitoring target has been photographed to a situation in which it is determined, the display unit internal position specifying unit determines the display unit internal position by the vehicle exterior image. It may be changed from the one based on the internal position to the one based on the in-vehicle image internal position.

また、本発明の一態様では、前記表示制御手段は、前記監視対象物の位置が前記表示部の表示範囲外である場合に、前記監視対象物の位置に応じた前記表示部の縁部に目印画像を表示させる。 Further, in one aspect of the present invention, the display control means, when the position of the monitored object is outside the display range of the display unit, on the edge of the display unit according to the position of the monitored object. Display the landmark image.

また、本発明の一態様では、前記表示部は、前記車両に設けられたヘッドアップディスプレイである。 Moreover, in one aspect of the present invention, the display unit is a head-up display provided in the vehicle.

あるいは、前記表示部は、前記乗務員が装着するヘッドマウントディスプレイである。 Alternatively, the display unit is a head mounted display worn by the crew member.

また、本発明に係る表示制御方法は、車両の外に設けられた車外撮影装置により撮影される車外画像に写る監視対象物の当該車外画像内における位置である車外画像内位置を特定するステップと、前記車外画像内位置と、前記車両の乗務員の眼前に配置される表示部の位置及び向きと、に基づいて、当該表示部内における前記監視対象物の位置である表示部内位置を特定するステップと、特定される前記表示部内位置に目印画像を表示させるステップと、を含む。 Further, the display control method according to the present invention includes a step of identifying an in-vehicle image position which is a position of the monitoring target in the out-vehicle image captured in an out-vehicle image captured by an out-vehicle image capturing device provided outside the vehicle. A position inside the display unit that is the position of the monitored object in the display unit based on the position inside the image outside the vehicle and the position and orientation of the display unit arranged in front of the crew member of the vehicle; And displaying a landmark image at the specified position in the display unit.

また、本発明に係るプログラムは、車両の外に設けられた車外撮影装置により撮影される車外画像に写る監視対象物の当該車外画像内における位置である車外画像内位置を特定する手順、前記車外画像内位置と、前記車両の乗務員の眼前に配置される表示部の位置及び向きと、に基づいて、当該表示部内における前記監視対象物の位置である表示部内位置を特定する手順、特定される前記表示部内位置に目印画像を表示させる手順、をコンピュータに実行させる。 Further, the program according to the present invention is a procedure for identifying an in-vehicle image position, which is a position of the monitoring target in the outside image captured in an outside image taken by an outside image pickup device provided outside the vehicle, the outside of the vehicle. Based on the position in the image and the position and orientation of the display unit arranged in front of the crew member of the vehicle, the procedure for specifying the position in the display unit, which is the position of the monitored object in the display unit, is specified. A computer is made to perform the procedure of displaying a landmark image at the position in the display unit.

本発明の一実施形態に係る表示制御システムの構成の一例を示す図である。It is a figure showing an example of composition of a display control system concerning one embodiment of the present invention. 車外画像の一例を示す図である。It is a figure which shows an example of an image outside a vehicle. 車外画像の一例を示す図である。It is a figure which shows an example of an image outside a vehicle. 車外画像の一例を示す図である。It is a figure which shows an example of an image outside a vehicle. 監視システムのディスプレイに表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display of a surveillance system. 車両の乗務員が前方を見た様子の一例を示す図である。It is a figure which shows an example of a mode that the crew member of the vehicle looked ahead. 車両の乗務員が前方を見た様子の一例を示す図である。It is a figure which shows an example of a mode that the crew member of the vehicle looked ahead. 本発明の一実施形態に係る車両及び監視システムで実装される機能の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the function mounted in the vehicle and monitoring system which concern on one Embodiment of this invention. 仮想空間の一例を示す図である。It is a figure which shows an example of virtual space. 本発明の一実施形態に係る車両で行われる処理の流れの一例を示すフロー図である。It is a flow figure showing an example of a flow of processing performed with a vehicle concerning one embodiment of the present invention. 車両の乗務員が前方を見た様子の一例を示す図である。It is a figure which shows an example of a mode that the crew member of the vehicle looked ahead. 車両の乗務員が前方を見た様子の一例を示す図である。It is a figure which shows an example of a mode that the crew member of the vehicle looked ahead.

以下、本発明の一実施形態について図面に基づき詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施形態に係る表示制御システム1の構成の一例を示す図である。図1に示すように、本実施形態に係る表示制御システム1には、路線上を運行する車両10、複数の監視システム12、及び、車両10の運行を管理する運行管理システム14が含まれる。 FIG. 1 is a diagram showing an example of a configuration of a display control system 1 according to an embodiment of the present invention. As shown in FIG. 1, the display control system 1 according to the present embodiment includes a vehicle 10 that operates on a route, a plurality of monitoring systems 12, and an operation management system 14 that manages the operation of the vehicle 10.

複数の監視システム12のそれぞれは、例えば、車両10が運行する路線上の互いに異なる場所に設けられている。ここで例えば、路線上の各駅に、当該駅のプラットホームを監視する監視システム12が設けられていてもよい。また例えば、1つの駅に設けられた複数のプラットホームのそれぞれに、監視システム12が設けられていてもよい。また、1つのプラットホームに複数の監視システム12が設けられていてもよい。 Each of the plurality of monitoring systems 12 is provided, for example, at different places on the route on which the vehicle 10 operates. Here, for example, each station on the route may be provided with a monitoring system 12 that monitors the platform of the station. Further, for example, the monitoring system 12 may be provided in each of the plurality of platforms provided in one station. Further, a plurality of monitoring systems 12 may be provided on one platform.

車両10、監視システム12、運行管理システム14は、インターネット等のコンピュータネットワーク16に接続されている。そのため、車両10、監視システム12、運行管理システム14は、コンピュータネットワーク16を介して互いに通信可能となっている。 The vehicle 10, the monitoring system 12, and the operation management system 14 are connected to a computer network 16 such as the Internet. Therefore, the vehicle 10, the monitoring system 12, and the operation management system 14 can communicate with each other via the computer network 16.

図1に示すように、車両10には、プロセッサ10a、記憶部10b、通信部10c、車載撮影装置10d、ヘッドアップディスプレイ(HUD)10e、が含まれている。 As shown in FIG. 1, the vehicle 10 includes a processor 10a, a storage unit 10b, a communication unit 10c, a vehicle-mounted image capturing device 10d, and a head-up display (HUD) 10e.

プロセッサ10aは、例えば記憶部10bに記憶されるプログラムに従って動作するCPU等のプログラム制御デバイスである。 The processor 10a is a program control device such as a CPU that operates according to a program stored in the storage unit 10b, for example.

記憶部10bは、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部10bには、プロセッサ10aによって実行されるプログラムなどが記憶される。 The storage unit 10b is a storage element such as a ROM or RAM, a hard disk drive, or the like. The storage unit 10b stores a program executed by the processor 10a and the like.

通信部10cは、例えばネットワークボードなどの通信インタフェースである。 The communication unit 10c is a communication interface such as a network board.

車載撮影装置10dは、例えば、車両10の前方を撮影するデジタルカメラなどの撮影装置である。なお、車載撮影装置10dが、三次元画像やデプス画像の撮影が可能なカメラ(例えばステレオカメラ)であってもよい。以下、車載撮影装置10dによって撮影される画像を、車載画像と呼ぶこととする。本実施形態に係る車載撮影装置10dは、所定のフレームレートで車両10の前方を撮影する。 The vehicle-mounted imaging device 10d is an imaging device such as a digital camera that images the front of the vehicle 10, for example. The in-vehicle image capturing device 10d may be a camera (for example, a stereo camera) capable of capturing a three-dimensional image or a depth image. Hereinafter, the image captured by the in-vehicle image capturing device 10d will be referred to as an in-vehicle image. The vehicle-mounted photographing device 10d according to the present embodiment photographs the front of the vehicle 10 at a predetermined frame rate.

HUD10eは、運転士等の乗務員の眼前に画像を表示させる表示装置である。本実施形態に係るHUD10eの実装方式は特に問わない。例えば、本実施形態に係るHUD10eが、車両10の前面に設けられたフロントガラスに画像を投影するタイプのものであってもよい。また、本実施形態に係るHUD10eが、乗務員の眼前に配置されたコンバイナに画像を投影するタイプのものであってもよい。本実施形態では、HUD10eによって画像が表示されることで、乗務員は、HUD10eによって表示される画像と車両10の前方の実空間の様子の両方を一目で視認できるようになっている。HUD10eは、車両10の前面に設けられたフロントガラスの前方の空間に浮かんだ虚像を乗務員に見せるものであってもよい。 The HUD 10e is a display device that displays an image in front of the eyes of a crew member such as a driver. The mounting method of the HUD 10e according to this embodiment is not particularly limited. For example, the HUD 10e according to this embodiment may be of a type that projects an image on a windshield provided on the front surface of the vehicle 10. Further, the HUD 10e according to the present embodiment may be of a type that projects an image on a combiner arranged in front of the crew member. In the present embodiment, the image is displayed by the HUD 10e, so that the crew can visually recognize both the image displayed by the HUD 10e and the state of the real space in front of the vehicle 10. The HUD 10e may be configured to show a crew member a virtual image floating in a space in front of a windshield provided on the front surface of the vehicle 10.

図1に示すように、監視システム12には、プロセッサ12a、記憶部12b、通信部12c、車外撮影装置12d、ディスプレイ12e、が含まれている。 As shown in FIG. 1, the monitoring system 12 includes a processor 12a, a storage unit 12b, a communication unit 12c, a vehicle exterior imaging device 12d, and a display 12e.

プロセッサ12aは、例えば記憶部12bに記憶されるプログラムに従って動作するCPU等のプログラム制御デバイスである。 The processor 12a is a program control device such as a CPU that operates according to a program stored in the storage unit 12b, for example.

記憶部12bは、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部12bには、プロセッサ12aによって実行されるプログラムなどが記憶される。 The storage unit 12b is a storage element such as a ROM or RAM, a hard disk drive, or the like. The storage unit 12b stores programs and the like executed by the processor 12a.

通信部12cは、例えばネットワークボードなどの通信インタフェースである。 The communication unit 12c is a communication interface such as a network board.

車外撮影装置12dは、例えば、駅のプラットホーム等の画像を撮影するデジタルカメラなどの撮影装置である。本実施形態に係る車外撮影装置12dは、所定のフレームレートで定点を撮影する。なお、車外撮影装置12dが、三次元画像やデプス画像の撮影が可能なカメラ(例えばステレオカメラ)であってもよい。以下、車外撮影装置12dによって撮影される画像を、車外画像と呼ぶこととする。 The vehicle exterior imaging device 12d is, for example, an imaging device such as a digital camera that captures an image of a station platform or the like. The vehicle exterior imaging device 12d according to the present embodiment photographs a fixed point at a predetermined frame rate. The vehicle exterior image capturing device 12d may be a camera (for example, a stereo camera) capable of capturing a three-dimensional image or a depth image. Hereinafter, the image captured by the vehicle exterior imaging device 12d will be referred to as the vehicle exterior image.

ディスプレイ12eは、例えば、車外撮影装置12dによって撮影される車外画像が表示される液晶ディスプレイや有機ELディスプレイなどの表示装置である。 The display 12e is, for example, a display device such as a liquid crystal display or an organic EL display that displays an image outside the vehicle captured by the vehicle exterior image capturing device 12d.

図2には、車外画像20が示されている。本実施形態では、図2に示すように、車外画像20内に、安全領域22a、接近領域22b、転落領域22c、及び、保線退避領域22dの4つの領域が設定される。 An image 20 outside the vehicle is shown in FIG. In the present embodiment, as shown in FIG. 2, four areas of a safety area 22a, an approach area 22b, a falling area 22c, and a track keeping escape area 22d are set in the vehicle exterior image 20.

車外画像20に設定される上述の4つの領域は、例えば、図3に示すように、車両限界枠モデル24を用いて予め設定されてもよい。当該設定においては例えば、まず、車外画像20内における線路の位置が識別される。そして、識別された線路に沿って、複数の車両限界枠モデル24が配置される。それぞれの車両限界枠モデル24のサイズは、例えば、当該車両限界枠モデル24が配置される線路の幅に比例している。 The above-mentioned four areas set in the image 20 outside the vehicle may be set in advance by using the vehicle limit frame model 24 as shown in FIG. 3, for example. In the setting, for example, first, the position of the track in the image 20 outside the vehicle is identified. Then, a plurality of vehicle limit frame models 24 are arranged along the identified track. The size of each vehicle limit frame model 24 is, for example, proportional to the width of the track on which the vehicle limit frame model 24 is arranged.

そして、複数の車両限界枠モデル24のホームとは反対側の斜め下端に相当する位置を結ぶ線、当該線の上端からホームとは反対側(図4の例では左)に伸びる線、及び、車外画像20のホームとは反対側の辺(図4の例では左辺)によって囲まれる領域が、保線退避領域22dに設定されてもよい。 Then, a line connecting the positions corresponding to the diagonal lower ends on the side opposite to the home of the plurality of vehicle limit frame models 24, a line extending from the upper end of the lines to the side opposite to the home (left in the example of FIG. 4), and An area surrounded by a side (left side in the example of FIG. 4) on the side opposite to the home of the image 20 outside the vehicle may be set as the track maintenance escape area 22d.

そして、複数の車両限界枠モデル24のホームとは反対側の斜め下端に相当する位置を結ぶ線、当該線の上端からホーム側(図4の例では右)に伸びる線、複数の車両限界枠モデル24のホーム側の側構えの下端に相当する位置を結ぶ線、車外画像20の下辺、及び、車外画像20のホームとは反対側の辺(図4の例では左辺)によって囲まれる領域が、転落領域22cに設定されてもよい。 A line connecting the positions corresponding to the diagonal lower ends of the plurality of vehicle limit frame models 24 on the side opposite to the home, a line extending from the upper end of the line to the home side (right in the example of FIG. 4), a plurality of vehicle limit frames A region that is surrounded by a line connecting a position corresponding to the lower end of the platform side of the model 24, the lower side of the outside image 20 and the side of the outside image 20 opposite to the home (the left side in the example of FIG. 4 ). , May be set in the falling area 22c.

そして、複数の車両限界枠モデル24のホーム側の側構えの下端に相当する位置を結ぶ線、当該線の上端からホーム側(図4の例では右)に伸びる線、点字ブロック又は白線のホームとは反対側の端(図4の例では左端)、及び、車外画像20の下辺によって囲まれる領域が、接近領域22bに設定されてもよい。 Then, a line connecting the positions corresponding to the lower ends of the side positions on the home side of the plurality of vehicle limit frame models 24, a line extending from the upper end of the lines to the home side (right in the example of FIG. 4), a braille block or a white line home An area surrounded by the end on the opposite side (the left end in the example of FIG. 4) and the lower side of the vehicle exterior image 20 may be set as the approach area 22b.

そして、複数の車両限界枠モデル24のホーム側の側構えの下端に相当する位置を結ぶ線の上端からホーム側(図4の例では右)に伸びる線、車外画像20のホーム側の辺(図4の例では右辺)、車外画像20の下辺、及び、点字ブロック又は白線のホームとは反対側の端(図4の例では左端)によって囲まれる領域が、安全領域22aに設定されてもよい。 Then, a line extending from the upper end of the line connecting the positions corresponding to the lower ends of the side positions on the home side of the plurality of vehicle limit frame models 24 to the home side (right in the example of FIG. 4), the side on the home side of the outside image 20 ( Even if the area surrounded by the right side in the example of FIG. 4, the lower side of the image 20 outside the vehicle, and the end of the braille block or the white line opposite to the home (the left end in the example of FIG. 4) is set as the safety area 22a. Good.

以上のようにして、車外画像20に、安全領域22a、接近領域22b、転落領域22c、及び、保線退避領域22dが設定される。なお、安全領域22a、接近領域22b、転落領域22c、及び、保線退避領域22dの設定は、上述の設定には限定されるものではなく、予め定められた別の方法によって、これらの4つの領域が車外画像20に設定されてもよい。また、転落領域22cが、車両限界枠モデル24が示す車両限界枠に対して余裕をもって設定されてもよい。 As described above, the safety area 22a, the approaching area 22b, the falling area 22c, and the track keeping escape area 22d are set in the vehicle exterior image 20. Note that the settings of the safety area 22a, the approach area 22b, the fall area 22c, and the track keeping escape area 22d are not limited to the above-mentioned settings, and these four areas can be set by another predetermined method. May be set in the image 20 outside the vehicle. Further, the falling area 22c may be set with a margin with respect to the vehicle limit frame indicated by the vehicle limit frame model 24.

上述のように、車外撮影装置12dは定点を撮影するため、車外撮影装置12dによって所定のフレームレートで撮影される一連の車外画像20における上述の領域は共通となる。 As described above, since the vehicle exterior imaging device 12d captures a fixed point, the above-described area is common in the series of vehicle exterior images 20 captured by the vehicle exterior imaging device 12d at a predetermined frame rate.

以下、接近領域22b、転落領域22c、及び、保線退避領域22dを含む領域を、監視対象領域と呼ぶこととする。そして、本実施形態に係る監視システム12は、公知の画像認識技術などを用いることで、撮影された車外画像20内の監視対象領域に写る所定の監視対象物を検出する。 Hereinafter, the area including the approaching area 22b, the falling area 22c, and the track keeping escape area 22d will be referred to as a monitoring target area. Then, the monitoring system 12 according to the present embodiment detects a predetermined monitoring target object appearing in the monitoring target area in the captured outside image 20 by using a known image recognition technique or the like.

図4には、図2及び図3に示す車外画像20とは異なる車外画像である車外画像26が示されている。図4に示す車外画像26には、所定の監視対象物の一例である、プラットホームから転落した転落者28が写っている。 FIG. 4 shows an outside-vehicle image 26 which is an outside-vehicle image different from the outside-vehicle image 20 shown in FIGS. 2 and 3. The outside image 26 shown in FIG. 4 shows a fallen person 28 who has fallen off the platform, which is an example of a predetermined monitoring target.

図4に示す車外画像26には、安全領域22a、接近領域22b、及び、転落領域22cが設定されている。図4に示す車外画像26のように、車外画像26に保線退避領域22dが設定されていなくてもよい。そして、図4に示す車外画像26の監視対象領域の一部である転落領域22c内に転落者28が写っている。また、図4には、転落者28の中心の位置P1が示されている。 A safety area 22a, an approach area 22b, and a fall area 22c are set in the vehicle exterior image 26 shown in FIG. Unlike the image 26 outside the vehicle shown in FIG. 4, the track keeping escape area 22d may not be set in the image outside the vehicle 26. Then, the fallen person 28 is shown in the falling area 22c which is a part of the monitoring target area of the vehicle exterior image 26 shown in FIG. Further, FIG. 4 shows the center position P1 of the fallen person 28.

このように監視対象領域に所定の監視対象物が写っていることが検出された際には、ディスプレイ12eには、例えば、検出された監視対象物に対応する目印画像30が図4に示す車外画像26に重畳された、図5に例示する画像32が表示される。 In this way, when it is detected that a predetermined monitoring target object appears in the monitoring target area, for example, a mark image 30 corresponding to the detected monitoring target object is displayed on the display 12e outside the vehicle shown in FIG. An image 32 illustrated in FIG. 5 superimposed on the image 26 is displayed.

目印画像30は、例えば、車外画像26内における転落者28の位置を示す画像である。図5の例では、目印画像30は、位置P1を中心とした枠状の画像である。 The landmark image 30 is, for example, an image showing the position of the fallen person 28 in the image 26 outside the vehicle. In the example of FIG. 5, the mark image 30 is a frame-shaped image centered on the position P1.

また、目印画像30は、検出された監視対象物が存在する領域の種類に対応する態様(例えば色)の画像であってもよい。例えば、検出された監視対象物が保線退避領域22dに存在する場合は、目印画像30は、紫色の枠の画像であってもよい。検出された監視対象物が転落領域22cに存在する場合は、目印画像30は、赤色の枠の画像であってもよい。検出された監視対象物が接近領域22bに存在する場合は、目印画像30は、黄色の枠の画像であってもよい。図4の例では転落者28が転落領域22cに存在するので、図5に示す目印画像30が、例えば、赤色の枠の画像であってもよい。 Further, the mark image 30 may be an image in a mode (for example, color) corresponding to the type of the area where the detected monitoring target object exists. For example, when the detected monitored object is present in the track maintenance area 22d, the mark image 30 may be a purple frame image. When the detected monitoring target is present in the falling area 22c, the mark image 30 may be an image with a red frame. When the detected monitoring target object exists in the approaching area 22b, the mark image 30 may be an image of a yellow frame. In the example of FIG. 4, the falling person 28 exists in the falling area 22c, so the mark image 30 shown in FIG. 5 may be, for example, a red frame image.

図6は、監視対象領域に所定の監視対象物が写っている状況が所定の時間継続した際に、車両10の乗務員が前方を見た様子の一例を示す図である。本実施形態では、監視対象領域に所定の監視対象物が写っている状況が所定の時間継続した際には、図6に示すように、車両10のHUD10e内における監視対象物の位置P2に目印画像34が表示される。 FIG. 6 is a diagram illustrating an example of a state in which a crew member of the vehicle 10 looks forward when a situation in which a predetermined monitoring target is reflected in the monitoring target area continues for a predetermined time. In the present embodiment, when the situation in which the predetermined monitoring target appears in the monitoring target area continues for a predetermined time, as shown in FIG. 6, the position P2 of the monitoring target in the HUD 10e of the vehicle 10 is marked. The image 34 is displayed.

位置P2は、図4に示す位置P1に対応付けられる監視対象物の位置である。そして、図6の例では、目印画像34は、位置P2を中心とした枠状の画像である。ここで目印画像34の縦横比は、目印画像30の縦横比と同じであってもよい。また、車両10と監視対象物との間の距離が長いほど、目印画像34の大きさが小さくなるようにしてもよい。また、目印画像30と同様に、目印画像34は、検出された監視対象物が存在する領域の種類に対応する態様(例えば色)の画像であってもよい。図6の例では、目印画像34は、例えば、赤色の枠の画像であってもよい。 The position P2 is the position of the monitoring target that is associated with the position P1 shown in FIG. Then, in the example of FIG. 6, the mark image 34 is a frame-shaped image centered on the position P2. Here, the aspect ratio of the mark image 34 may be the same as the aspect ratio of the mark image 30. The size of the mark image 34 may be smaller as the distance between the vehicle 10 and the monitored object is longer. Further, similarly to the mark image 30, the mark image 34 may be an image of a mode (for example, a color) corresponding to the type of the area where the detected monitoring target object exists. In the example of FIG. 6, the mark image 34 may be, for example, a red frame image.

このように、本実施形態では、車載撮影装置10dによって撮影される車載画像に転落者28等の所定の監視対象物が写っていなくても、検出された監視対象物の位置に目印画像34が表示される。そのため、本実施形態によれば、車載撮影装置10dで認識できない監視対象物の位置を乗務員に的確に把握させることが可能となる。なお本実施形態において、監視対象領域に所定の監視対象物が写ると直ちに、HUD10e内における監視対象物の位置P2に目印画像34が表示されるようにしてもよい。 As described above, in the present embodiment, even if the predetermined monitoring target such as the fallen person 28 is not shown in the vehicle-mounted image captured by the vehicle-mounted image capturing device 10d, the landmark image 34 is displayed at the position of the detected monitoring target. Is displayed. Therefore, according to the present embodiment, it becomes possible for the crew to accurately grasp the position of the monitoring target that cannot be recognized by the in-vehicle image capturing device 10d. In the present embodiment, the mark image 34 may be displayed at the position P2 of the monitored object in the HUD 10e as soon as the predetermined monitored object is captured in the monitored area.

また、本実施形態に係る車両10は、公知の画像認識技術などを用いることで、車載撮影装置10dによって撮影された車載画像に写る所定の監視対象物を検出する。 Further, the vehicle 10 according to the present embodiment detects a predetermined monitoring target object shown in the vehicle-mounted image captured by the vehicle-mounted image capturing device 10d by using a known image recognition technique or the like.

図7は、図6に示す状況から車両10が進行した際における、車両10の乗務員が前方を見た様子の一例を示す図である。ここで、図7に示す状況において車載撮影装置10dによって撮影される車載画像に、監視対象物である転落者28が写っていることとする。 FIG. 7 is a diagram showing an example of a state in which a crew member of the vehicle 10 looks forward when the vehicle 10 advances from the situation shown in FIG. Here, in the situation shown in FIG. 7, it is assumed that the fallen person 28, which is a monitoring target, is shown in the vehicle-mounted image captured by the vehicle-mounted image capturing device 10d.

この状況では、図4に示す位置P1に対応付けられる位置ではなく、車載画像に基づいて検出された監視対象物の位置P3に目印画像34が表示される。図7の例では、目印画像34は、位置P3を中心とした枠状の画像である。 In this situation, the mark image 34 is displayed not at the position associated with the position P1 shown in FIG. 4 but at the position P3 of the monitored object detected based on the in-vehicle image. In the example of FIG. 7, the mark image 34 is a frame-shaped image centered on the position P3.

車載撮影装置10dもHUD10eも車両10に対して固定されているため、車載撮影装置10dの位置及び向きを基準としたHUD10eの位置及び向きは、常に一定である。そして本実施形態では、車載撮影装置10dの位置及び向きとHUD10eの位置及び向きとが予め対応付けられている。そのため、車載画像内における監視対象物の位置に基づいて、HUD10e内における監視対象物の位置P3は一意に特定可能である。 Since both the vehicle-mounted image capturing device 10d and the HUD 10e are fixed to the vehicle 10, the position and orientation of the HUD 10e are always constant with reference to the position and orientation of the vehicle-mounted image capturing device 10d. In the present embodiment, the position and orientation of the vehicle-mounted imaging device 10d and the position and orientation of the HUD 10e are associated in advance. Therefore, the position P3 of the monitored object in the HUD 10e can be uniquely specified based on the position of the monitored object in the vehicle-mounted image.

以上のようにすることで、車載撮影装置10dによって撮影される車載画像に所定の監視対象物が写っていることが検出可能な際には、監視対象物の位置を乗務員により的確に把握させることが可能となる。 By doing as described above, when it is possible to detect that a predetermined monitoring target object appears in the vehicle-mounted image captured by the vehicle-mounted image capturing device 10d, the crew member can accurately grasp the position of the monitoring target object. Is possible.

以下、本実施形態に係る車両10及び監視システム12の機能、並びに、本実施形態に係る車両10で実行される処理についてさらに説明する。 Hereinafter, the functions of the vehicle 10 and the monitoring system 12 according to the present embodiment, and the processing executed by the vehicle 10 according to the present embodiment will be further described.

図8は、本実施形態に係る車両10及び監視システム12で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係る車両10及び監視システム12で、図8に示す機能のすべてが実装される必要はなく、また、図8に示す機能以外の機能が実装されていても構わない。 FIG. 8 is a functional block diagram showing an example of functions implemented in the vehicle 10 and the monitoring system 12 according to this embodiment. It should be noted that the vehicle 10 and the monitoring system 12 according to the present embodiment do not need to have all the functions shown in FIG. 8 installed, and may have functions other than those shown in FIG.

図8に示すように、本実施形態に係る監視システム12には、機能的には例えば、検出部40、車外画像内位置特定部42、検出通知部44、が含まれる。検出部40は、プロセッサ12a及び車外撮影装置12dを主として実装される。車外画像内位置特定部42は、プロセッサ12aを主として実装される。検出通知部44は、通信部12cを主として実装される。 As shown in FIG. 8, the monitoring system 12 according to the present embodiment functionally includes, for example, a detection unit 40, a vehicle outside image position specifying unit 42, and a detection notification unit 44. The detection unit 40 is mainly mounted on the processor 12a and the vehicle exterior imaging device 12d. The vehicle outside image position specifying unit 42 is mainly mounted on the processor 12a. The detection notification unit 44 is mainly mounted on the communication unit 12c.

以上の機能は、コンピュータである監視システム12にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ12aで実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して監視システム12に搭載されたコンピュータに供給されてもよい。 The above functions may be implemented by causing the processor 12a to execute a program that is installed in the monitoring system 12 that is a computer and that includes a command corresponding to the above functions. This program is supplied to a computer installed in the monitoring system 12 via a computer-readable information storage medium such as an optical disc, a magnetic disc, a magnetic tape, a magneto-optical disc, a flash memory, or the like, or via the Internet or the like. May be done.

また、図8に示すように、本実施形態に係る車両10には、機能的には例えば、通知受信部50、検出データ記憶部52、走行経路上位置特定部54、表示部内位置特定部56、表示制御部58、判定部60、車載画像内位置特定部62、が含まれる。通知受信部50は、通信部10cを主として実装される。検出データ記憶部52は、記憶部10bを主として実装される。走行経路上位置特定部54は、プロセッサ10a及び記憶部10bを主として実装される。表示部内位置特定部56は、プロセッサ10a、記憶部10b、及び、通信部10cを主として実装される。表示制御部58は、プロセッサ10a及びHUD10eを主として実装される。判定部60は、プロセッサ10a及び車載撮影装置10dを主として実装される。車載画像内位置特定部62は、プロセッサ10aを主として実装される。 Further, as shown in FIG. 8, in the vehicle 10 according to the present embodiment, functionally, for example, the notification receiving unit 50, the detection data storage unit 52, the traveling route position specifying unit 54, and the display position inside specifying unit 56. The display control unit 58, the determination unit 60, and the in-vehicle image position specifying unit 62 are included. The notification receiving unit 50 is implemented mainly by the communication unit 10c. The detection data storage unit 52 is mainly mounted on the storage unit 10b. The travel route position specifying unit 54 is implemented mainly by the processor 10a and the storage unit 10b. The in-display position specifying unit 56 is mainly mounted on the processor 10a, the storage unit 10b, and the communication unit 10c. The display control unit 58 is mainly mounted on the processor 10a and the HUD 10e. The determination unit 60 is mainly mounted on the processor 10a and the vehicle-mounted imaging device 10d. The in-vehicle image position specifying unit 62 is mainly mounted on the processor 10a.

以上の機能は、車両10に搭載されたコンピュータにインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ10aで実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して車両10に搭載されたコンピュータに供給されてもよい。 The above functions may be implemented by executing a program, which is installed in a computer mounted on the vehicle 10 and includes a command corresponding to the above functions, in the processor 10a. This program is supplied to a computer mounted on the vehicle 10 via a computer-readable information storage medium such as an optical disc, a magnetic disc, a magnetic tape, a magneto-optical disc, a flash memory, or the like, or via the Internet or the like. May be.

検出部40は、本実施形態では例えば、公知の画像認識技術などを用いることで、車両10の外に設けられた車外撮影装置12dにより撮影される車外画像に写る監視対象物を検出する。検出部40は、例えば、監視対象領域に写る監視対象物を検出してもよい。 In the present embodiment, for example, the detection unit 40 uses a known image recognition technique or the like to detect the monitoring target object in the vehicle exterior image captured by the vehicle exterior imaging device 12d provided outside the vehicle 10. The detection unit 40 may detect, for example, a monitoring target object appearing in the monitoring target area.

車外画像内位置特定部42は、監視対象物が検出された車外画像内における、当該監視対象物の位置である車外画像内位置を特定する。ここでは、例えば、図4に示す車外画像26に基づいて、当該車外画像26の画像平面内における、監視対象物である転落者28の中心の位置P1の二次元座標値が特定される。 The outside-vehicle image position specifying unit 42 specifies the inside-vehicle image position, which is the position of the monitoring target in the outside-vehicle image in which the monitoring target is detected. Here, for example, based on the vehicle exterior image 26 shown in FIG. 4, the two-dimensional coordinate value of the position P1 of the center of the fallen person 28 who is the monitoring target in the image plane of the vehicle exterior image 26 is specified.

検出通知部44は、本実施形態では例えば、検出部40によって監視対象物が検出された際に、監視対象物が検出されたことを示す検出通知を車両10に送信する。ここで検出通知部44は、監視対象領域に写る監視対象物が写っている状況が所定の時間継続した際に、検出通知を車両10に送信してもよい。 In the present embodiment, for example, the detection notification unit 44 transmits a detection notification indicating that the monitoring target has been detected to the vehicle 10 when the detection unit 40 detects the monitoring target. Here, the detection notification unit 44 may transmit the detection notification to the vehicle 10 when the situation in which the monitoring target in the monitoring target area is reflected continues for a predetermined time.

また、検出通知部44は、所定の条件を満たす車両10に検出通知を送信してもよい。例えば、検出通知部44は、監視システム12が設けられている駅に向かう、当該駅からの距離が所定の距離以下である車両10に検出通知を送信してもよい。また例えば、検出通知部44は、監視システム12が設けられている駅に向かう、当該駅とその手前の駅の間にある車両10に検出通知を送信してもよい。 The detection notification unit 44 may also send the detection notification to the vehicle 10 that satisfies a predetermined condition. For example, the detection notification unit 44 may transmit the detection notification to the vehicle 10 heading for the station where the monitoring system 12 is provided and having a distance from the station that is equal to or less than a predetermined distance. Further, for example, the detection notification unit 44 may transmit the detection notification to the vehicle 10 heading for the station where the monitoring system 12 is provided and between the station and the station in front of the station.

検出通知には、例えば、検出通知を送信する監視システム12あるいは当該監視システム12が設けられている駅の識別情報や、検出された監視対象物の位置を示す監視対象物位置データなどを含む検出データが関連付けられている。監視対象物位置データは、例えば、上述の位置P1の二次元座標値を示すデータであってもよい。 The detection notification includes, for example, the identification information of the monitoring system 12 that transmits the detection notification or the station where the monitoring system 12 is provided, the detection target position data indicating the position of the detected monitoring target, and the like. The data is associated. The monitored object position data may be, for example, data indicating the two-dimensional coordinate value of the position P1 described above.

通知受信部50は、本実施形態では例えば、監視対象物を検出した監視システム12から、上述の検出通知を受信する。そして通知受信部50は、受信した検出通知に関連付けられている検出データを検出データ記憶部52に記憶させる。 In the present embodiment, for example, the notification receiving unit 50 receives the above-described detection notification from the monitoring system 12 that has detected the monitoring target object. Then, the notification receiving unit 50 causes the detection data storage unit 52 to store the detection data associated with the received detection notification.

検出データ記憶部52は、本実施形態では例えば、検出データを記憶する。 The detection data storage unit 52 stores the detection data in the present embodiment, for example.

走行経路上位置特定部54は、本実施形態では例えば、車両10の線状の走行経路上における監視対象物の位置(以下、走行経路上位置と呼ぶ。)を特定する。 In the present embodiment, for example, the travel route position specifying unit 54 specifies the position of the monitored object on the linear travel route of the vehicle 10 (hereinafter, referred to as the travel route position).

本実施形態では例えば、走行経路上位置特定部54には、予め、車両10の線状の走行経路を示す走行経路データが記憶されている。走行経路データには、例えば、車両10の線状の走行経路に沿った複数の位置の、実空間における三次元座標値が示されている。ここで当該三次元座標値は、例えば、緯度、経度、及び、標高によって表現されていてもよい。 In the present embodiment, for example, the travel route position specifying unit 54 stores travel route data indicating a linear travel route of the vehicle 10 in advance. In the travel route data, for example, three-dimensional coordinate values in a real space at a plurality of positions along the linear travel route of the vehicle 10 are shown. Here, the three-dimensional coordinate value may be represented by, for example, latitude, longitude, and altitude.

また、本実施形態では例えば、走行経路上位置特定部54に、予め、複数の監視システム12のそれぞれについての車外画像・走行経路対応関係データが記憶されている。車外画像・走行経路対応関係データは、例えば、監視システム12で撮影される車外画像内における位置と走行経路データが示す走行経路上の位置との所与の対応関係を示すデータである。 Further, in the present embodiment, for example, the outside-vehicle image/traveling route correspondence relationship data for each of the plurality of monitoring systems 12 is stored in the traveling route position specifying unit 54 in advance. The outside-vehicle image/running route correspondence data is, for example, data indicating a given correspondence between the position in the outside-vehicle image captured by the monitoring system 12 and the position on the running route indicated by the running route data.

そして本実施形態では、検出データに含まれる監視対象物位置データが示す車外画像内位置、走行経路データ、及び、車外画像・走行経路対応関係データに基づいて、当該車外画像内位置に対応付けられる走行経路上の位置(上述の走行経路上位置)が特定される。 Then, in the present embodiment, it is associated with the in-vehicle image position based on the in-vehicle image position, the traveling route data, and the outside-vehicle image/driving route correspondence relationship data indicated by the monitored object position data included in the detection data. The position on the travel route (the above-mentioned position on the travel route) is specified.

表示部内位置特定部56は、本実施形態では例えば、車外画像内位置と、車両10の乗務員の眼前に配置される表示部(例えばHUD10e)の位置及び向きと、に基づいて、当該表示部内における監視対象物の位置(以下、表示部内位置と呼ぶ。)を特定する。 In the present embodiment, the position identifying unit 56 in the display unit, for example, in the image outside the vehicle and the position and orientation of the display unit (for example, the HUD 10e) arranged in front of the crew member of the vehicle 10 in the display unit. The position of the monitored object (hereinafter referred to as the position in the display unit) is specified.

以下、表示部内位置特定部56による表示部内位置の特定について、図9を参照しながら説明する。 The specification of the position in the display unit by the position-in-display unit 56 will be described below with reference to FIG.

図9は、実空間に対応付けられる仮想空間の一例を示す図である。実空間内における位置は、図9に示す仮想空間内における位置と1対1で対応付けられる。当該仮想空間を示すデータは、例えば、表示部内位置特定部56に記憶される。 FIG. 9 is a diagram showing an example of a virtual space associated with a real space. The position in the real space is in one-to-one correspondence with the position in the virtual space shown in FIG. The data indicating the virtual space is stored in, for example, the display internal position specifying unit 56.

本実施形態では例えば、運行管理システム14によって、車両10の走行経路R上における位置及び進行方向がリアルタイムで管理されている。そして、走行経路R上における車両10の現在の位置及び進行方向を示す運行データが、例えば所定の時間間隔で運行管理システム14から車両10に送信される。 In this embodiment, for example, the operation management system 14 manages the position and traveling direction of the vehicle 10 on the travel route R in real time. Then, operation data indicating the current position and traveling direction of the vehicle 10 on the travel route R is transmitted to the vehicle 10 from the operation management system 14 at predetermined time intervals, for example.

そして、本実施形態では例えば、表示部内位置特定部56に、予め、運行データが示す車両10の位置及び向きとHUD10eの位置及び向きとの所与の対応関係を示す車両・HUD対応関係データが記憶されている。そして、表示部内位置特定部56は、車両・HUD対応関係データと、車両10の現在の位置及び進行方向を示す運行データと、に基づいて、現在におけるHUD10eの位置及び向きを特定する。 Then, in the present embodiment, for example, the vehicle-HUD correspondence relationship data indicating a given correspondence relationship between the position and orientation of the vehicle 10 indicated by the operation data and the position and orientation of the HUD 10e is previously stored in the display position identifying unit 56. Remembered Then, the display intra-position specifying unit 56 specifies the current position and orientation of the HUD 10e based on the vehicle-HUD correspondence relationship data and the operation data indicating the current position and traveling direction of the vehicle 10.

また、本実施形態では例えば、表示部内位置特定部56に、予め、運行データが示す車両10の位置及び向きと乗務員の視点の位置及び視線方向との所与の対応関係を示す車両・視点対応関係データが記憶されている。そして、表示部内位置特定部56は、車両・視点対応関係データと、車両10の現在の位置及び進行方向を示す運行データと、に基づいて、現在における乗務員の視点の位置及び視線方向を特定する。 In addition, in the present embodiment, for example, the display-internal position specifying unit 56 preliminarily provides a vehicle/viewpoint correspondence indicating a given correspondence relationship between the position and direction of the vehicle 10 indicated by the operation data and the viewpoint position and line-of-sight direction of the crew. Related data is stored. Then, the position-in-display part specifying unit 56 specifies the current position of the crew member's viewpoint and the line-of-sight direction based on the vehicle/viewpoint correspondence data and the operation data indicating the current position and traveling direction of the vehicle 10. ..

図9には、実空間におけるHUD10eに対応付けられる板状の仮想HUDオブジェクト70が示されている。図9に示す仮想HUDオブジェクト70は、実空間におけるHUD10eの位置に対応付けられる仮想空間における位置に、実空間におけるHUD10eの向きに対応付けられる仮想空間における向きで配置される。 FIG. 9 shows a plate-shaped virtual HUD object 70 associated with the HUD 10e in the real space. The virtual HUD object 70 shown in FIG. 9 is arranged at the position in the virtual space associated with the position of the HUD 10e in the real space, in the orientation in the virtual space associated with the orientation of the HUD 10e in the real space.

また、図9には、上述のようにして特定される実空間における乗務員の視点の現在の位置に対応付けられる仮想空間内における位置P4が示されている。また、図9には、上述のようにして特定される実空間における乗務員の現在の視線方向に対応付けられる仮想空間における視線方向Dが示されている。 Further, FIG. 9 shows a position P4 in the virtual space that is associated with the current position of the viewpoint of the crew member in the real space specified as described above. Further, FIG. 9 shows the line-of-sight direction D in the virtual space that is associated with the current line-of-sight direction of the crew member in the real space identified as described above.

また、図9には、車外画像内位置(例えば、図4に示す位置P1)に基づいて特定される実空間における走行経路上位置に対応付けられる仮想空間内の位置P5が示されている。 Further, FIG. 9 shows a position P5 in the virtual space that is associated with the position on the travel route in the real space that is specified based on the position in the image outside the vehicle (for example, the position P1 shown in FIG. 4).

そして、表示部内位置特定部56は、位置P4と位置P5とを結ぶ線と仮想HUDオブジェクト70との交点の位置P6を特定する。ここでは例えば、板状の仮想HUDオブジェクト70が表す平面内における位置P6の二次元座標値が特定される。 Then, the in-display portion position specifying unit 56 specifies the position P6 of the intersection of the line connecting the position P4 and the position P5 and the virtual HUD object 70. Here, for example, the two-dimensional coordinate value of the position P6 in the plane represented by the plate-shaped virtual HUD object 70 is specified.

そして、表示部内位置特定部56は、図9に示す位置P6に対応付けられる、HUD10e内における監視対象物の位置である表示部内位置(例えば、図6に示す位置P2)を特定する。本実施形態では、仮想HUDオブジェクト70が表す平面内における位置と表示部内位置とが1対1で予め対応付けられている。そのため、位置P6の二次元座標値に基づいて表示部内位置は特定可能である。以上で説明したように、表示部内位置特定部56は、走行経路上位置に基づいて、表示部内位置を特定してもよい。 Then, the in-display unit position specifying unit 56 specifies the position in the display unit (for example, the position P2 shown in FIG. 6) which is the position of the monitored object in the HUD 10e associated with the position P6 shown in FIG. In the present embodiment, the position in the plane represented by the virtual HUD object 70 and the position in the display unit are preliminarily associated with each other on a one-to-one basis. Therefore, the position in the display unit can be specified based on the two-dimensional coordinate value of the position P6. As described above, the display internal position specifying unit 56 may specify the display internal position based on the position on the travel route.

表示制御部58は、本実施形態では例えば、表示部内位置特定部56により特定される表示部内位置に目印画像34を表示させる。ここで表示制御部58は、所定の条件を満足する監視対象物の表示部内位置に目印画像34を表示させてもよい。例えば、車両10の進行方向に存在する、車両10からの距離が所定の距離以下の監視システム12によって検出された監視対象物の表示部内位置に目印画像34が表示されるようにしてもよい。あるいは、車両10の進行方向に存在する、所定数個先までの駅に設けられた監視システム12によって検出された監視対象物の表示部内位置に目印画像34が表示されるようにしてもよい。あるいは、車両10が次に停車又は通過する駅に設けられた監視システム12によって検出された監視対象物の表示部内位置に目印画像34が表示されるようにしてもよい。 In the present embodiment, for example, the display control unit 58 causes the mark image 34 to be displayed at the position inside the display unit specified by the position inside display unit specifying unit 56. Here, the display control unit 58 may display the mark image 34 at a position in the display unit of the monitored object that satisfies a predetermined condition. For example, the mark image 34 may be displayed at a position in the display unit of the monitored object that is present in the traveling direction of the vehicle 10 and is located at a distance from the vehicle 10 that is equal to or less than a predetermined distance. Alternatively, the mark image 34 may be displayed at a position in the display unit of the monitored object detected by the monitoring system 12 provided in a station up to a predetermined number of stations in the traveling direction of the vehicle 10. Alternatively, the mark image 34 may be displayed at the position in the display unit of the monitored object detected by the monitoring system 12 provided at the station where the vehicle 10 will next stop or pass.

判定部60は、本実施形態では例えば、車両10に設けられた車載撮影装置10dにより監視対象物が撮影されたか否かを判定する。ここでは、例えば、車載画像に監視対象物が写っているか否かが判定される。 In the present embodiment, for example, the determination unit 60 determines whether or not the monitoring target has been imaged by the vehicle-mounted imaging device 10d provided in the vehicle 10. Here, for example, it is determined whether or not the monitored object appears in the in-vehicle image.

車載画像内位置特定部62は、本実施形態では例えば、車載撮影装置10dにより撮影される車載画像に写る監視対象物の当該車載画像内における位置である車載画像内位置を特定する。 In the present embodiment, for example, the in-vehicle image position specifying unit 62 specifies the in-vehicle image position, which is the position of the monitoring target in the in-vehicle image captured in the in-vehicle image captured by the in-vehicle image capturing device 10d.

車載撮影装置10dにより監視対象物が撮影されたことが判定部60によって判定された場合は、表示部内位置特定部56は、車載画像内位置に基づいて、表示部内位置を特定してもよい。そしてこの場合、表示制御部58は、車載画像内位置に基づいて特定される表示部内位置に目印画像34を表示させてもよい。 When the determination unit 60 determines that the monitoring target object has been captured by the in-vehicle image capturing device 10d, the display unit internal position identification unit 56 may identify the display unit internal position based on the in-vehicle image internal position. Then, in this case, the display control unit 58 may display the mark image 34 at the position inside the display unit that is specified based on the position inside the vehicle-mounted image.

本実施形態では、車載画像内位置と表示部内位置とは予め対応付けられている。そのため、表示部内位置特定部56は、車載画像内位置に基づいて、表示部内位置を一意に特定可能である。 In the present embodiment, the in-vehicle image position and the display unit position are associated with each other in advance. Therefore, the in-display unit position specifying unit 56 can uniquely specify the in-display unit position based on the in-vehicle image position.

また、本実施形態において、車載撮影装置10dにより監視対象物が撮影されたことが判定されない状況から判定された状況に変化することがある。この場合に、表示部内位置特定部56が、表示部内位置を、車外画像内位置に基づくものから、車載画像内位置に基づくものに変化させてもよい。 In addition, in the present embodiment, there may be a change from a situation in which it is not determined that the monitoring target object has been photographed by the vehicle-mounted photographing device 10d to a situation in which it is determined. In this case, the display internal position specifying unit 56 may change the display internal position from one based on the vehicle outside image position to one based on the vehicle image inside position.

以下、本実施形態に係る車両10において所定のフレームレートで繰り返し行われる処理の流れの一例を、図10に例示するフロー図を参照しながら説明する。 Hereinafter, an example of the flow of processing that is repeatedly performed at the predetermined frame rate in the vehicle 10 according to the present embodiment will be described with reference to the flowchart illustrated in FIG. 10.

まず、判定部60が、当該フレームにおいて撮影された車載画像を取得する(S101)。 First, the determination unit 60 acquires the vehicle-mounted image captured in the frame (S101).

そして、走行経路上位置特定部54が、検出データ記憶部52に記憶されている検出データのうちから、所定の条件を満足するものを特定する(S102)。ここで例えば、検出データに含まれる識別情報に基づいて、車両10の進行方向に存在する、車両10からの距離が所定の距離以下の監視システム12から送信された検出データが特定されてもよい。あるいは、検出データに含まれる識別情報に基づいて、車両10の進行方向に存在する、所定数個先までの駅に設けられた監視システム12から送信された検出データが特定されてもよい。あるいは、検出データに含まれる識別情報に基づいて、車両10が次に停車又は通過する駅に設けられた監視システム12から送信された検出データが特定されてもよい。 Then, the travel route position identifying unit 54 identifies one of the detection data stored in the detection data storage unit 52 that satisfies a predetermined condition (S102). Here, for example, based on the identification information included in the detection data, the detection data transmitted from the monitoring system 12 existing in the traveling direction of the vehicle 10 and having a distance from the vehicle 10 equal to or less than a predetermined distance may be specified. .. Alternatively, based on the identification information included in the detection data, the detection data transmitted from the monitoring system 12 provided in the station up to a predetermined number of stations existing in the traveling direction of the vehicle 10 may be specified. Alternatively, the detection data transmitted from the monitoring system 12 provided at the station where the vehicle 10 next stops or passes may be specified based on the identification information included in the detection data.

そして、走行経路上位置特定部54が、S102に示す処理で特定された検出データに含まれる監視対象物位置データが示す車外画像内位置に対応する走行経路上位置を特定する(S103)。 Then, the travel route on-position specifying unit 54 specifies the travel route on-position corresponding to the in-vehicle image position indicated by the monitored object position data included in the detection data specified in the process of S102 (S103).

そして、表示部内位置特定部56が、最新の運行データに基づいて、HUD10eの現在の位置及び向き、並びに、乗務員の視点の位置及び視線方向を特定する(S104)。 Then, the position identifying unit 56 in the display unit identifies the current position and direction of the HUD 10e and the position and line-of-sight direction of the crew member's viewpoint based on the latest operation data (S104).

そして、表示部内位置特定部56が、S103に示す処理で特定された走行経路上位置と、S104に示す処理で特定されたHUD10eの現在の位置及び向き、並びに、乗務員の視点の位置及び視線方向に基づいて、表示部内位置を特定する(S105)。 Then, the in-display position specifying unit 56 determines the position on the travel route specified in the process shown in S103, the current position and orientation of the HUD 10e specified in the process shown in S104, and the position and line-of-sight direction of the crew member's viewpoint. Based on, the position in the display unit is specified (S105).

そして、判定部60が、S101に示す処理で取得された車載画像内のS105に示す処理で特定された表示部内位置に応じた範囲に監視対象物が写っているか否かを判定する(S106)。ここでは例えば、S105に示す処理で特定された表示部内位置に対応する車載画像内における位置からの距離が所定の距離以下である範囲に監視対象物が写っているか否かが判定される。 Then, the determination unit 60 determines whether or not the monitoring target object appears in the range corresponding to the position in the display unit specified in the process shown in S105 in the vehicle-mounted image acquired in the process shown in S101 (S106). .. Here, for example, it is determined whether or not the monitored object appears in a range in which the distance from the position in the vehicle-mounted image corresponding to the position in the display unit specified in the process of S105 is equal to or less than a predetermined distance.

S106に示す処理で写っていないことが判定された場合は(S106:N)、表示制御部58が、S105に示す処理で特定された表示部内位置に目印画像34を表示させて(S107)、S101に示す処理に戻る。 When it is determined that the image is not captured in the process shown in S106 (S106: N), the display control unit 58 displays the mark image 34 at the position in the display unit specified in the process shown in S105 (S107), It returns to the process shown in S101.

S106に示す処理で写っていることが判定された場合は(S106:Y)、車載画像内位置特定部62は、S106に示す処理で写っていることが判定された監視対象物の車載画像内位置を特定する(S108)。 If it is determined that the image is captured in the process shown in S106 (S106: Y), the in-vehicle image position specifying unit 62 is in the in-vehicle image of the monitoring target determined to be captured in the process shown in S106. The position is specified (S108).

そして、表示部内位置特定部56が、S108に示す処理で特定された車載画像内位置に対応する表示部内位置を特定する(S109)。 Then, the display unit internal position specifying unit 56 specifies the display unit internal position corresponding to the vehicle-mounted image internal position specified in the process shown in S108 (S109).

そして、表示制御部58が、S109に示す処理で特定された表示部内位置に目印画像34を表示させて(S110)、S101に示す処理に戻る。 Then, the display control unit 58 causes the mark image 34 to be displayed at the position in the display unit identified in the process of S109 (S110), and returns to the process of S101.

図10に示す処理を実行することで、車載撮影装置10dにより監視対象物が撮影されたことが判定されない状況から判定された状況に変化した際に、表示部内位置が、車外画像内位置に基づくものから、車載画像内位置に基づくものに変化することとなる。 By executing the process shown in FIG. 10, the position inside the display unit is based on the position inside the image outside the vehicle when the in-vehicle image capturing device 10d changes from the state in which it is not determined that the monitored object is captured to the determined state. It changes from the one based on the position in the vehicle-mounted image.

なお図10に示す処理において、一度、車載画像に監視対象物が写っていることが判定された以後は、当該監視対象物については、S102〜S107に示す処理が実行されないようにして、車載画像内位置に基づいて表示部内位置が特定されるようにしてもよい。 In the process shown in FIG. 10, once it is determined that the monitoring target object appears in the vehicle-mounted image, the processes shown in S102 to S107 are not executed for the monitoring target object, and the vehicle-mounted image is displayed. The internal position of the display unit may be specified based on the internal position.

また、本実施形態において、表示制御部58は、監視対象物の位置がHUD10eの表示範囲外である場合に、図11に示すように、監視対象物の位置に応じたHUD10eの縁部に目印画像72を表示させてもよい。 Further, in the present embodiment, when the position of the monitored object is outside the display range of the HUD 10e, the display control unit 58 marks the edge of the HUD 10e corresponding to the position of the monitored object as shown in FIG. The image 72 may be displayed.

例えば、図9に示す位置P4と位置P5とを結ぶ線と仮想HUDオブジェクト70との交点が存在しないとする。この場合は、位置P4と位置P5とを結ぶ線に最も近い、仮想HUDオブジェクト70の辺上の位置が特定されてもよい。そして、特定された位置に対応付けられるHUD10eの縁部に目印画像72が表示されるようにしてもよい。 For example, it is assumed that there is no intersection between the line connecting the position P4 and the position P5 shown in FIG. 9 and the virtual HUD object 70. In this case, the position on the side of the virtual HUD object 70 that is closest to the line connecting the position P4 and the position P5 may be specified. Then, the mark image 72 may be displayed on the edge of the HUD 10e associated with the specified position.

また、本実施形態において、図12に示すように、目印画像34とともに、乗務員の視界の妨げのならない場所に警告画像74が表示されるようにしてもよい。あるいは、目印画像34の代わりに警告画像74が表示されるようにしてもよい。 Further, in the present embodiment, as shown in FIG. 12, a warning image 74 may be displayed together with the mark image 34 at a place where the visual field of the crew member is not obstructed. Alternatively, the warning image 74 may be displayed instead of the mark image 34.

また、本実施形態において、車外撮影装置12dが三次元画像やデプス画像の撮影が可能なカメラである場合に、監視システム12がカメラ座標系における監視対象物の三次元座標値を特定してもよい。そして、当該三次元座標値に基づいて、監視対象物の実空間内における位置や表示部内位置が特定されるようにしてもよい。なおこの場合に、当該三次元座標値を示す監視対象物位置データを含む検出データが関連付けられた検出通知が送信されるようにしてもよい。 Further, in the present embodiment, when the vehicle exterior imaging device 12d is a camera capable of capturing a three-dimensional image or a depth image, the monitoring system 12 specifies the three-dimensional coordinate value of the monitoring target in the camera coordinate system. Good. Then, based on the three-dimensional coordinate value, the position of the monitored object in the real space or the position in the display unit may be specified. In this case, the detection notification associated with the detection data including the monitoring target position data indicating the three-dimensional coordinate value may be transmitted.

また、車載撮影装置10dが三次元画像やデプス画像の撮影が可能なカメラである場合に、車両10がカメラ座標系における監視対象物の三次元座標値を特定してもよい。そして、当該三次元座標値に基づいて、表示部内位置が特定されるようにしてもよい。 Further, when the vehicle-mounted photographing device 10d is a camera capable of photographing a three-dimensional image or a depth image, the vehicle 10 may specify the three-dimensional coordinate value of the monitoring target in the camera coordinate system. Then, the position in the display unit may be specified based on the three-dimensional coordinate value.

なお、車両10と監視システム12の役割分担は上述のものには限定されない。例えば、監視システム12から車両10に車外画像が送信されるようにしてもよい。そして、車両10が、車外画像に基づいて車外画像内位置を特定してもよい。また、監視システム12が、走行経路上位置などの、監視対象物の実空間内における位置を特定してもよい。 The division of roles of the vehicle 10 and the monitoring system 12 is not limited to the above. For example, the vehicle exterior image may be transmitted from the monitoring system 12 to the vehicle 10. Then, the vehicle 10 may specify the position inside the vehicle outside image based on the vehicle outside image. Further, the monitoring system 12 may specify the position of the monitored object in the real space, such as the position on the travel route.

また、本実施形態において、白杖を持った人物、補助犬、車いすを利用している人物、酔客等が、車外画像に写っていることが検出された際に、そのことを表す画像が車両10のHUD10eに表示されるようにしてもよい。 In addition, in the present embodiment, when it is detected that a person with a white cane, an auxiliary dog, a person using a wheelchair, a drunken person, etc. are included in the image outside the vehicle, an image representing that is detected by the vehicle. You may make it displayed on 10 HUD10e.

また、本実施形態において、踏切を監視するカメラが撮影する画像に基づいて、踏切内に支障物があるか否かが判定されてもよい。当該判定は、例えば、特殊発光信号機の動作センサの出力や特殊発光信号機の映像の認識結果に基づいて実行されてもよい。そして、踏切内に支障物があるか否かが判定された際に、そのことを表す画像が車両10のHUD10eに表示されるようにしてもよい。ここで例えば上述と同様の方法によって、当該支障物に対応付けられる表示部内位置に目印画像が表示されるようにしてもよい。 Further, in the present embodiment, it may be determined whether or not there is an obstacle inside the railroad crossing based on an image captured by a camera that monitors the railroad crossing. The determination may be performed based on, for example, the output of the operation sensor of the special light emission signal or the recognition result of the image of the special light emission signal. Then, when it is determined whether or not there is an obstacle inside the railroad crossing, an image indicating this may be displayed on the HUD 10e of the vehicle 10. Here, for example, the mark image may be displayed at the position in the display unit associated with the obstacle by the same method as described above.

なお、本発明は上述の実施形態に限定されるものではない。 The present invention is not limited to the above embodiment.

例えば、表示部内位置の特定方法は上述の方法には限定されない。例えば、車載画像に対して画像認識を実行し、車載画像に写っていない線路の位置が外挿によって推定されてもよい。そして推定された線路の位置上の表示部内位置が決定されるようにしてもよい。あるいは、過去の車両10の走行において車載撮影装置10dによって撮影された映像を学習した機械学習モデルを用いて、監視対象物の実空間内における位置や、表示部内位置が推定されるようにしてもよい。 For example, the method of identifying the position in the display unit is not limited to the above method. For example, image recognition may be performed on the vehicle-mounted image, and the position of the railroad that is not shown in the vehicle-mounted image may be estimated by extrapolation. Then, the position in the display unit on the estimated position of the track may be determined. Alternatively, the position of the monitoring target in the real space or the position in the display unit may be estimated by using a machine learning model in which an image captured by the vehicle-mounted image capturing device 10d in the past traveling of the vehicle 10 is learned. Good.

また、例えば、車両10の乗務員の眼前に配置される表示部が、HUD10eではなく、乗務員が装着するヘッドマウントディスプレイ(HMD)であってもよい。そして、目印画像が、HMDに表示されるようにしてもよい。この場合、例えば、HMDに設けられた加速度センサ等の各種センサの出力に基づいてHMDの位置及び向きが特定されてもよい。そして、特定されるHMDの位置及び向きに基づいて、表示部内位置が特定されるようにしてもよい。 Further, for example, the display unit arranged in front of the crew of the vehicle 10 may be a head mounted display (HMD) worn by the crew instead of the HUD 10e. Then, the landmark image may be displayed on the HMD. In this case, for example, the position and orientation of the HMD may be specified based on the outputs of various sensors such as an acceleration sensor provided on the HMD. Then, the position in the display unit may be specified based on the specified position and orientation of the HMD.

また、上述の具体的な文字列や数値、並びに、図面中の具体的な文字列は例示であり、これらの文字列や数値には限定されない。 Further, the specific character strings and numerical values described above and the specific character strings in the drawings are examples, and the present invention is not limited to these character strings and numerical values.

1 表示制御システム、10 車両、10a プロセッサ、10b 記憶部、10c 通信部、10d 車載撮影装置、10e ヘッドアップディスプレイ(HUD)、12 監視システム、12a プロセッサ、12b 記憶部、12c 通信部、12d 車外撮影装置、12e ディスプレイ、14 運行管理システム、16 コンピュータネットワーク、20 車外画像、22a 安全領域、22b 接近領域、22c 転落領域、22d 保線退避領域、24 車両限界枠モデル、26 車外画像、28 転落者、30 目印画像、32 画像、34 目印画像、40 検出部、42 車外画像内位置特定部、44 検出通知部、50 通知受信部、52 検出データ記憶部、54 走行経路上位置特定部、56 表示部内位置特定部、58 表示制御部、60 判定部、62 車載画像内位置特定部、70 仮想HUDオブジェクト、72 目印画像、74 警告画像。 1 display control system, 10 vehicle, 10a processor, 10b storage unit, 10c communication unit, 10d vehicle-mounted image capturing device, 10e head-up display (HUD), 12 monitoring system, 12a processor, 12b storage unit, 12c communication unit, 12d exterior image capturing Device, 12e display, 14 operation management system, 16 computer network, 20 exterior image, 22a safety area, 22b approach area, 22c fall area, 22d track maintenance area, 24 vehicle limit frame model, 26 exterior image, 28 fallen person, 30 Mark image, 32 image, 34 mark image, 40 detection unit, 42 vehicle outside image position specifying unit, 44 detection notification unit, 50 notification receiving unit, 52 detection data storage unit, 54 travel route position specifying unit, 56 display position Specific part, 58 Display control part, 60 Judgment part, 62 In-vehicle image position specific part, 70 Virtual HUD object, 72 Mark image, 74 Warning image.

Claims (8)

車両の外に設けられた車外撮影装置により撮影される車外画像に写る監視対象物の当該車外画像内における位置である車外画像内位置を特定する車外画像内位置特定手段と、
前記車両の線状の走行経路を示す走行経路データと、前記車外画像内位置と、に基づいて、前記走行経路データが示す走行経路上における前記監視対象物の位置である走行経路上位置を特定する走行経路上位置特定手段と、
前記走行経路上位置と、前記車両の乗務員の眼前に配置される表示部の位置及び向きと、に基づいて、当該表示部内における前記監視対象物の位置である表示部内位置を特定する表示部内位置特定手段と、
特定される前記表示部内位置に目印画像を表示させる表示制御手段と、
を含むことを特徴とする表示制御システム。
An outside-vehicle image position specifying means for specifying an outside-vehicle image position, which is a position in the outside-vehicle image of the monitoring target shown in the outside-vehicle image taken by the outside-vehicle imaging device provided outside the vehicle,
Based on the traveling route data indicating the linear traveling route of the vehicle and the position inside the vehicle image, the position on the traveling route which is the position of the monitoring target on the traveling route indicated by the traveling route data is specified. Position specifying means on the traveling route,
Based on the position on the travel route and the position and orientation of the display unit arranged in front of the crew of the vehicle, the position in the display unit that identifies the position in the display unit that is the position of the monitored object in the display unit. Identification means,
Display control means for displaying a mark image at the specified position in the display section;
A display control system comprising:
前記車両に設けられた車載撮影装置により前記監視対象物が撮影されたか否かを判定する判定手段と、
前記車載撮影装置により撮影される車載画像に写る前記監視対象物の当該車載画像内における位置である車載画像内位置を特定する車載画像内位置特定手段と、をさらに含み、
前記車載撮影装置により前記監視対象物が撮影されたことが判定された場合は、前記表示部内位置特定手段は、前記車載画像内位置に基づいて、前記表示部内位置を特定する、
ことを特徴とする請求項に記載の表示制御システム。
Determination means for determining whether or not the monitored object is photographed by the vehicle-mounted photographing device provided in the vehicle,
The vehicle-mounted image capturing device further includes a vehicle-mounted image internal position identifying unit that identifies a vehicle-mounted image internal position that is a position in the vehicle-mounted image of the monitoring target captured in the vehicle-mounted image captured by the vehicle-mounted image capturing device,
When it is determined that the monitoring target has been photographed by the vehicle-mounted image capturing device, the display unit internal position identifying means identifies the display unit internal position based on the vehicle-mounted image internal position,
The display control system according to claim 1 , wherein:
前記車載撮影装置により前記監視対象物が撮影されたことが判定されない状況から判定された状況に変化した際に、前記表示部内位置特定手段は、前記表示部内位置を、前記車外画像内位置に基づくものから、前記車載画像内位置に基づくものに変化させる、
ことを特徴とする請求項に記載の表示制御システム。
When the situation in which it is not determined that the monitoring target has been photographed by the vehicle-mounted image capturing device is changed to the determined situation, the display unit internal position specifying unit determines the display unit internal position based on the vehicle outside image internal position. Change from the one based on the position in the in-vehicle image,
The display control system according to claim 2 , wherein:
前記表示制御手段は、前記監視対象物の位置が前記表示部の表示範囲外である場合に、前記監視対象物の位置に応じた前記表示部の縁部に目印画像を表示させる、
ことを特徴とする請求項1からのいずれか一項に記載の表示制御システム。
The display control means, when the position of the monitoring target is outside the display range of the display unit, displays a mark image on the edge of the display unit according to the position of the monitoring target,
The display control system according to any one of claims 1 to 3, characterized in that.
前記表示部は、前記車両に設けられたヘッドアップディスプレイである、
ことを特徴とする請求項1からのいずれか一項に記載の表示制御システム。
The display unit is a head-up display provided in the vehicle,
The display control system according to claim 1, any one of 4, characterized in that.
前記表示部は、前記乗務員が装着するヘッドマウントディスプレイである、
ことを特徴とする請求項1からのいずれか一項に記載の表示制御システム。
The display unit is a head mounted display worn by the crew member,
The display control system according to claim 1, any one of 4, characterized in that.
車両の外に設けられた車外撮影装置により撮影される車外画像に写る監視対象物の当該車外画像内における位置である車外画像内位置を特定するステップと、
前記車両の線状の走行経路を示す走行経路データと、前記車外画像内位置と、に基づいて、前記走行経路データが示す走行経路上における前記監視対象物の位置である走行経路上位置を特定するステップと、
前記走行経路上位置と、前記車両の乗務員の眼前に配置される表示部の位置及び向きと、に基づいて、当該表示部内における前記監視対象物の位置である表示部内位置を特定するステップと、
特定される前記表示部内位置に目印画像を表示させるステップと、
を含むことを特徴とする表示制御方法。
A step of identifying an in-vehicle image position that is a position in the out-of-vehicle image of the monitoring target shown in an out-of-vehicle image captured by an out-of-vehicle image capturing device provided outside the vehicle,
A position on the travel route that is the position of the monitored object on the travel route indicated by the travel route data is specified based on the travel route data indicating the linear travel route of the vehicle and the position outside the vehicle image. Steps to
Based on the position on the traveling route and the position and orientation of the display unit arranged in front of the crew of the vehicle, a step of specifying a position in the display unit that is the position of the monitored object in the display unit,
A step of displaying a mark image at the specified position in the display section;
A display control method comprising:
車両の外に設けられた車外撮影装置により撮影される車外画像に写る監視対象物の当該車外画像内における位置である車外画像内位置を特定する手順、
前記車両の線状の走行経路を示す走行経路データと、前記車外画像内位置と、に基づいて、前記走行経路データが示す走行経路上における前記監視対象物の位置である走行経路上位置を特定する手順、
前記走行経路上位置と、前記車両の乗務員の眼前に配置される表示部の位置及び向きと、に基づいて、当該表示部内における前記監視対象物の位置である表示部内位置を特定する手順、
特定される前記表示部内位置に目印画像を表示させる手順、
をコンピュータに実行させることを特徴とするプログラム。
A procedure for identifying the in-vehicle image position, which is the position of the monitored object in the in-vehicle image shown in the in-vehicle image captured by the in-vehicle image capturing device provided outside the vehicle,
A position on the travel route that is the position of the monitored object on the travel route indicated by the travel route data is specified based on the travel route data indicating the linear travel route of the vehicle and the position outside the vehicle image. Steps to
Based on the position on the travel route and the position and orientation of the display unit arranged in front of the crew member of the vehicle, a procedure for specifying a position in the display unit that is the position of the monitored object in the display unit,
A procedure for displaying a landmark image at the specified position in the display unit,
A program characterized by causing a computer to execute.
JP2019221232A 2019-12-06 2019-12-06 Display control system, display control method and program Active JP6729958B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019221232A JP6729958B1 (en) 2019-12-06 2019-12-06 Display control system, display control method and program
PCT/JP2020/044464 WO2021112030A1 (en) 2019-12-06 2020-11-30 Display control system, display control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019221232A JP6729958B1 (en) 2019-12-06 2019-12-06 Display control system, display control method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020111734A Division JP2021091387A (en) 2020-06-29 2020-06-29 Display control system, display control method, and program

Publications (2)

Publication Number Publication Date
JP6729958B1 true JP6729958B1 (en) 2020-07-29
JP2021093565A JP2021093565A (en) 2021-06-17

Family

ID=71738443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019221232A Active JP6729958B1 (en) 2019-12-06 2019-12-06 Display control system, display control method and program

Country Status (2)

Country Link
JP (1) JP6729958B1 (en)
WO (1) WO2021112030A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7502253B2 (en) * 2021-12-03 2024-06-18 古河電気工業株式会社 Roadside device, communication system, railroad vehicle device, program, and communication method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5741173B2 (en) * 2011-04-19 2015-07-01 トヨタ自動車株式会社 Image display device and image display method
US20160318530A1 (en) * 2015-04-30 2016-11-03 Roger Laverne Johnson System, method and apparatus for managing railroad operations and assets using frequently acquired, path oriented, geospatial and time registered, sensor mapped data
JP7006235B2 (en) * 2017-12-18 2022-01-24 トヨタ自動車株式会社 Display control device, display control method and vehicle
JP7132740B2 (en) * 2018-04-12 2022-09-07 日本信号株式会社 Object detection system
JP2019191961A (en) * 2018-04-25 2019-10-31 株式会社東芝 Traveling state presentation device

Also Published As

Publication number Publication date
WO2021112030A1 (en) 2021-06-10
JP2021093565A (en) 2021-06-17

Similar Documents

Publication Publication Date Title
US11868133B1 (en) Avoiding blind spots of other vehicles
US9507345B2 (en) Vehicle control system and method
CN111664854B (en) Object position indicator system and method
JP6944308B2 (en) Control devices, control systems, and control methods
US8954252B1 (en) Pedestrian notifications
US7605773B2 (en) Head-up display system and method for carrying out the location-correct display of an object situated outside a vehicle with regard to the position of the driver
TWI633524B (en) Traffic monitoring system
US9381918B1 (en) Modifying speed of an autonomous vehicle based on traffic conditions
US8874372B1 (en) Object detection and classification for autonomous vehicles
CN109795413B (en) Driving support device and driving support method
US20130197736A1 (en) Vehicle control based on perception uncertainty
US20120083964A1 (en) Zone driving
US10747221B2 (en) Moving body, moving body control system, and moving body control method
US10732420B2 (en) Head up display with symbols positioned to augment reality
WO2015163205A1 (en) Vehicle display system
US20200180519A1 (en) Display control device for vehicle, display control method for vehicle, and storage medium
TW201333896A (en) Remote traffic management system using video radar
JP2020123339A (en) Cooperative blind spot alarm method and apparatus of vehicle-to-vehicle communication infrastructure with fault tolerance and fluctuation robustness under extreme situation
KR20180040012A (en) Front monitoring apparatus, driving assistant apparatus using front monitoring apparatus and driving assistant method using front monitoring apparatus
JP2023174676A (en) Vehicle display control device, method and program
CN112440741A (en) Vehicle time multiplex display
JP6729958B1 (en) Display control system, display control method and program
CN117242460A (en) Computerized detection of unsafe driving scenarios
EP2246762B1 (en) System and method for driving assistance at road intersections
CN113928335B (en) Method and system for controlling a vehicle having an autonomous driving mode

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191206

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191206

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200629

R150 Certificate of patent or registration of utility model

Ref document number: 6729958

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250